El 6 de febrero de 1949 al ingeniero alemán 1949 Werner Jacobi se le otorgó la patente de un circuito integrado, el “alma” de los futuros ordenadores. Fue uno de los inventos que propició la llegada de la era informática gracias a los microchips que hoy están presentes en ordenadores, teléfonos, mascotas, dispositivos médicos y hasta en nuestro cuerpo. Pero, ¿sabemos de verdad cómo funcionan? Lo primero que se nos ocurre al pensar en microchips es que trabajan con el sistema binario. Del mismo modo que el sistema decimal nos permite representar todos los números, usando del 0 al 9 como su base, y colocándolos en orden para señalar unidades, decenas, centenas, etc., el sistema binario usa solo 0 y 1 para lo mismo. Y, en lugar de multiplicar por 10, se hace por 2. Así, mientras en el número 2019, el uno representa las decenas, en el sistema binario, el segundo lugar representaría un 2, el tercero (el de las centenas en el decimal) sería el 4, el cuarto lugar el 8 y así. De este modo, en sistema binario, 2019 sería 11111100011.

La ventaja del sistema binario sobre el decimal es que solo contempla dos opciones, ceros y unos. Si bien para el día a día esto es muy complejo, a la hora de almacenar o representar información usando electricidad, es el método más eficaz: el sistema binario trabaja basándose en On/Off, Verdadero/Falso, Blanco/Negro. Del mismo modo que las neuronas de nuestro cerebro, que conectan o interrumpen la corriente eléctrica para comunicarse, los transistores en un microchip (el equivalente a las neuronas del cerebro) se activan o desactivan para procesar la información. El estado On/Off en un transistor es la pieza más pequeña de información y se llama bit (Binary digit, es decir, dígito binario).

Aquí hay que hacer un poco de historia. Cuando comenzaron a ser más frecuentes los ordenadores, cada fabricante operaba con un número diferentes de bits, entre 5 y 12, pero la necesidad de que los diferentes ordenadores pudieran intercambiar información hacía necesario que hubiera un estándar. Así, en 1963, se crea el código ASCII (American Standard Code for Information Interchange o Código Estándar Estadounidense para Intercambio de Información) que empezó a trabajar con 8 bits, es decir 8 “espacios” para ceros y unos. Con 8 bits, el número máximo que se puede representar es 255, que en binario equivale a 8 unos. Por eso el antiguo Pac-man se congelaba al llegar a la fase 256. Operaba en 8 bits y no podía ir más allá del 255.

El código ASCII utilizó estas 255 posibilidades para asignar, a cada una de ellas, una letra, un símbolo, un signo de puntuación o un número. De este modo, cuando pulsamos la tecla J, por ejemplo, el ordenador lo convierte en números binarios= 1001010. Estos 8 bits iniciales ha ido aumentando a 16, 32, 64, etc. a medida que había más y más transistores en los microchips.

Commons

Obviamente el texto es fácil, pero las imágenes y los sonidos necesitan más “neuronas”. En 1971, Intel lanzó su procesador Intel 4004, el primero disponible de modo comercial. Tenía apenas 2.300 transistores o “neuronas” para procesar información. Casi medio siglo después, el último modelo presentado por Intel, el i9-9900K, ronda los 10.000 millones de transistores. Y no solo tiene más “neuronas”, sino que están más juntas y la información tarda menos en viajar, por eso los microchips pueden ser más pequeños, pero más rápidos.

Por otro lado, a la hora de almacenar o procesar fotos, los microchips también trabajan con ceros y unos. Y lo hacen de este modo. Las imágenes están compuestas por pequeños puntos conocidos como pixels. Cada pixel ocupa 3 bytes (un byte equivale a 8 bits), de ese modo, a cada pixel le corresponden una serie de 0 y 1 que lo distinguen de otros colores. Y, con la música más de lo mismo: básicamente cada sonido es una serie de vibraciones en nuestro oído que pueden ser representadas en forma de onda. Cualquier punto en esta onda se puede representar con un número. Por lo tanto, si queremos mejorar nuestra experiencia auditiva, siempre debemos elegir un sistema de audio de 32 bits por encima de uno de 8 bits, ya que habrá más información y matices. Y lo mismo ocurre con los colores.

The Washington PostGetty Images

Básicamente, un microchip busca hacer lo mismo que un cerebro biológico: procesar la información mediante electricidad sirviéndose del interruptor propio de las neuronas. Cuantas más neuronas o transistores, más información puede procesar. Y, al igual que ocurre con el cerebro, también los microchips tienen un límite físico a partir del cual ya no pueden sumar más “neuronas”.

La solución a esto es la computación cuántica. En términos muy sencillos, un ordenador cuántico se sirve de una propiedad de la mecánica cuántica que hace que el qubit (el bit cuántico) pueda ser 0, 1 o ambos al mismo tiempo. ¿Cuál es la diferencia? Hasta la fecha, el ordenador cuántico más potente se encuentra en Holanda y es una iniciativa de la Universidad de Delft e Intel. Tiene “apenas” 49 qubits, pero sería suficiente para, en teoría, superar en capacidad de procesamiento a los superordenadores más potentes del momento.