Una persona que tenga todo el conocimiento habrá de saber qué es un terabyte, poner un enchufe, cómo se reproducen los caracoles, y, por ejemplo, cómo se escribe Lenin en chino. Todo, es mucho. 

Habría que empezar por cuantificar cuánto es el conocimiento humano. Hay quien dice que Aristóteles fue la última persona viva que reunía todo el saber, y quien asegura que nunca en los dos millones de años de evolución del ser humano alguien pudo saberlo todo, ni siquiera en el principio de los tiempos.

Chris Stringer , paleoantropólogo del Museo de Historia Natural de Londres lo expresa así: «Dados los diversos entornos en los que vivían los seres humanos incluso antes de salir de África, dudo que un ser humano pudiera haber mantenido toda la información necesaria para sobrevivir en toda la zona de distribución humana».

A medida que nuestro compendio de conocimientos crecía, en algún momento superó la capacidad de un cerebro para albergarlo.

Desde la antigüedad han existido intentos de compilar todo el saber humano en grandes bibliotecas universales como la Biblioteca de Alejandría, y el enciclopedismo y la macropaedia de los siglos XVII y XVIII fueron los primeros intentos reales de organizar y recoger todo el saber.

La 15.ª edición de la Enciclopedia Británica (la Britannica) adoptó como objetivo sistematizar todos los conocimientos humanos

La Britannica en inglés es la más antigua todavía en edición (aunque ya no se edita en papel) y su tamaño, a grandes rasgos, ha permanecido constante en los últimos setenta años, con cerca de cuarenta millones de palabras en 500 000 temas. En 1974, la 15.ª edición adoptó un tercer objetivo: el de sistematizar todos los conocimientos humanos.

Hubo un tiempo en que leer la Britannica por completo era un desafío para la élite cultural del mundo. Y se estableció que para leerla entera se necesitaban entre tres y veintidós años. Cuando Fat’h Ali se convirtió en el Shah de Persia en 1797, le regalaron un set completo de la tercera edición de la Britannica, que leyó en tres años.

El escritor George Bernard Shaw afirmó haber leído completamente la novena edición, exceptuando los artículos científicos. También los exploradores echaron mano de ella.  Philip Beaver, oficial de la Royal Navi en el s.XVIII, la leyó durante una expedición marina y el almirante norteamericano Richard Evelyn Byrd tomó a la Britannica como material de lectura durante los cinco meses que estuvo en el Polo Sur en 1934.

Leer la Británica tenía una enorme reputación, porque resumía todo el conocimiento humano. Nadie se plantea hoy leer toda la información contenida en internet, por mucho que la estancia en el Polo sea de años.

El conocimiento crece a un ritmo inalcanzable

Buckminster Fuller, un extraño personaje norteamericano, diseñador y futurólogo, creó la “Curva de duplicación del conocimiento”, que nos sirve para este juego.

Fuller decía que si tomamos como base el conocimiento generado hasta el año 1 DC, a la humanidad le tomó 1500 años duplicarlo (pasar de 1 a 2), la siguiente duplicación (pasar de 2 a 4) tomó 250 años, y así, en el año 1900 la humanidad había producido 8 veces más conocimiento que en el año 1, para 1945 el conocimiento se duplicaba cada 25 años, en 1975 cada 12 años, y actualmente se estima que se duplica cada 2 años.

Con esto, cabe pensar que aunque cada día que pasa conocemos un poco más, en términos relativos, cada vez sabemos menos del total del conocimiento existente.

Según IBM, la construcción de la «Internet de las cosas» conducirá a duplicar el conocimiento cada 12 horas

Hoy en día las cosas no son tan simples. Según los expertos, los diferentes tipos de conocimiento tienen diferentes tasas de crecimiento. Por ejemplo, el conocimiento en nanotecnología se duplica cada dos años y el conocimiento clínico cada 18 meses. Pero, en promedio, el conocimiento humano se duplica cada 13 meses. Según IBM, la construcción de la «Internet de las cosas» conducirá a duplicar el conocimiento cada 12 horas.

En 2003, Peter Lyman y Hal R. Varian, de la universidad de Berkeley, realizaron un fascinante estudio, How much information, para analizar cómo aumenta la información registrada. Estimaron que creció un 30% cada año desde el período 1999 a 2002  y se produjeron cada año entre uno y dos exabytes de información nueva (mil millones de gigabytes ó 1018 bytes), el 60% de la cual correspondía a información digital.

Como dato curioso, sin olvidar que el estudio es de 2003, Lyman y Varian encontraron que la World Wide Web contiene alrededor de 170 terabytes de información en su superficie; en volumen, esto es diecisiete veces el tamaño de las colecciones impresas de la Biblioteca del Congreso de los EEUU. Aquí se pueden leer las interesantes conclusiones de aquel estudio.

En 2019 había en internet 40 veces más bytes de datos que estrellas hay en el universo observable

Anualmente, la firma de software en la nube DOMO publica un informe sobre la cantidad de datos recopilados en cada minuto. El informe de 2019, ‘Data Never Sleeps 7.0’, afirma que ese año había 40 veces más bytes de datos que estrellas hay en el universo observable.

En el gráfico de 2018 de DOMO,  indican que “se crean más de 2,5 quintillones de bytes de datos todos los días” y que se estima que cada persona en la Tierra genera 1,7 MB de datos por segundo. Somos 7.75 billones generando toneladas de datos al segundo. Actualmente, se estima que Internet tiene 5 millones de terabytes (TB) de información, de los cuales Google ha indexado aproximadamente 200 TB, es decir, solo el 0,004% de la información que contiene internet puede encontrarse a través de Google.

¿Para cuánto da el cerebro humano?

Nuestro cerebro posee unos 100.000 millones de neuronas que establecen entre ellas al menos cien billones de conexiones. Estas conexiones son el soporte que sirve para almacenar información, tanto la reproducción del caracol como el nombre de Lenin en chino. A partir de estos datos, los expertos en neurociencia computacional calculan que la capacidad máxima de almacenamiento de información de nuestro órgano pensante es de entre diez y cien terabytes.

El cerebro humano tendría capacidad para conocer el 0,00002% del conocimiento

Podemos hacer un cálculo contando con esos 100 terabytes de memoria, o, lo que es lo mismo, 100.000 gigabytes de recuerdos, experiencias, conocimientos, etc.

Si contamos con esa cifra de los 5 millones de terabytes de información que hay en internet, el cerebro humano tendría capacidad para conocer el 0,00002% del conocimiento total, si aceptamos que está todo en internet.