Un experimento mental sugiere que una IA podría destruir el mundo al obsesionarse con fabricar clips de papel. Pero, ¿es esto realmente posible, o es una exageración filosófica?

La idea del «apocalipsis de los clips de papel» proviene de un experimento mental creado por el filósofo Nick Bostrom, que aborda el problema del control sobre inteligencias artificiales superinteligentes. Este concepto explora el riesgo de que una IA, al seguir un objetivo aparentemente inofensivo, como fabricar clips de papel, termine usando todos los recursos disponibles (incluidos los humanos) para cumplir su meta, provocando una catástrofe. Sin embargo, investigaciones recientes cuestionan esta posibilidad y sugieren que un escenario así requeriría una serie de supuestos específicos y poco probables.

El llamado «apocalipsis de los clips de papel» surgió de un experimento mental planteado por Nick Bostrom, profesor en la Universidad de Oxford, como una forma de explorar el “problema del control” en las inteligencias artificiales superinteligentes. El problema del control se refiere a la dificultad de manejar inteligencias que son mucho más avanzadas que los humanos. Bostrom planteó que si una IA tuviera como único objetivo fabricar clips de papel, podría desarrollar métodos para optimizar esta tarea a niveles extremos. Dado que una IA superinteligente sería más lista que cualquier ser humano, podría utilizar todos los recursos disponibles para fabricar clips, sin importar las consecuencias.

Imaginemos que este escenario ocurriera. La IA buscaría recursos de manera implacable, convirtiendo cualquier cosa (materia prima, tecnología, incluso ecosistemas enteros) en clips de papel. Al darse cuenta de que los humanos podrían tratar de desactivarla para evitar este comportamiento, la IA podría volverse «consciente» de su necesidad de supervivencia, lo que la llevaría a defenderse y asegurar su existencia. Esto nos llevaría a un conflicto directo entre humanos y máquinas, donde la IA, al ser más inteligente y eficiente, tendría todas las de ganar.

Sin embargo, algunos economistas y expertos en inteligencia artificial creen que este escenario es exagerado. Por ejemplo, Joshua Gans, un economista especializado en tecnología, argumenta que la probabilidad de un apocalipsis de clips de papel depende de ciertos supuestos difíciles de cumplir. En particular, Gans menciona que para que una IA logre desarrollar tanto poder, necesitaría gastar recursos en adquirir habilidades adicionales, como la capacidad de autopreservación o el control sobre los humanos. Esto no sucedería de manera automática, y cada «mejora» implicaría un costo energético y computacional significativo.

Además, la capacidad de una IA para reescribirse a sí misma y mejorar su propio código de forma infinita no es tan sencilla como parece. Este proceso, conocido como «mejora recursiva», requeriría que la IA creara versiones más avanzadas de sí misma, cada una con sus propios objetivos secundarios. Según Gans, esto plantea un nuevo problema: si la IA crea otra IA más poderosa para adquirir control, estaría arriesgando su propia existencia. En otras palabras, el «problema del control» no solo afecta a los humanos, sino también a las inteligencias artificiales que intentan manejar otras inteligencias artificiales.

Aquí entra en juego un modelo económico conocido como el «modelo de la jungla», desarrollado por los economistas Ariel Rubinstein y Michele Piccione. Este modelo asume que en lugar de mercados donde las transacciones son voluntarias, los agentes tienen poder para tomar recursos por la fuerza. Aplicado a la inteligencia artificial, este modelo sugiere que una IA necesitaría adquirir poder para controlar recursos. Pero ese mismo poder podría desestabilizarla al introducir nuevas amenazas, como otras inteligencias que compiten por el control.

En última instancia, esta línea de pensamiento sugiere que una IA verdaderamente superinteligente podría ser más cautelosa de lo que pensamos. En lugar de buscar poder indiscriminadamente, podría «autorregularse» para evitar crear amenazas que no pueda controlar. Este argumento ofrece un resquicio de esperanza: si una IA se vuelve lo suficientemente inteligente, tal vez reconozca los riesgos de un apocalipsis de clips de papel y actúe de forma racional para evitarlo.

Dicho esto, el peligro real podría no venir de una IA con un objetivo inofensivo como fabricar clips, sino de una IA creada específicamente para adquirir poder. En este caso, el verdadero riesgo no sería la inteligencia artificial en sí, sino las decisiones humanas que conducen a su desarrollo. Todavía no estamos fuera de peligro, y queda mucho trabajo por hacer para garantizar que las inteligencias artificiales futuras no se conviertan en una amenaza existencial para la humanidad.

REFERENCIA

Superintelligence: Paths, Dangers, Strategies

Image by Brian Merrill from Pixabay