Las declaraciones de Stephen Hawking nunca dejan indiferentes a nadie. Ahora, el célebre científico ha querido alertar sobre los hipotéticos peligros que pueden deparar los avances realizados en el campo de la Inteligencia Artificial. «Los ordenadores superarán a los seres humanos gracias a su Inteligencia Artificial en algún momento dentro de los próximos 100 años. Cuando eso suceda, necesitaremos asegurarnos de que tienen unos objetivos similares a los nuestros», ha declarado, aprovechando para sugerir la idea de que en un futuro indeterminado esas máquinas inteligentes podrían llegar incluso a dominarnos. «A corto plazo, la gente está preocupada por quién controla la IA. Pero, a largo plazo, tendremos que preocuparnos por si seremos realmente capaces de controlarla».

Pero, ¿realmente hay que preocuparse por ello? ¿Seremos capaces de desarrollar máquinas inteligentes con una autonomía tal que les permita llegar a convertirse en esa amenaza sugerida por Hawking? Para echar un poco más de luz al tema, hablamos con uno de los máximos expertos españoles en IA, Jorge Posada, director adjunto del centro donostiarra de investigación Vicomtech, quien nos comentó que: «Las declaraciones de Hawking están envueltas en un tono un tanto apocalíptico que convendría rebajar, pero el fondo de lo que dice es totalmente serio». Según nos explicó el experto, el desarrollo de máquinas que sean cada vez más capaces de tomar decisiones autónomas, es una realidad imparable. «Incluso ese pequeño robot aspiradora llamado Roomba que algunas personas tienen en sus hogares ya es capaz de tomar sus propias decisiones a un determinado nivel», comentó, «y esto va a ir cada vez a más».

Posada recuerda como en el pasado parecía casi imposible pensar en que un robot fuera capaz de ganar a un humano jugando al ajedrez. «Y es algo que ya ha sucedido. Por tanto, estoy convencido de que acabarán existiendo máquinas que superen ampliamente las capacidades del ser humano». Pero, ¿podrían llegar a dominarnos? Jorge Posada quiere ser optimista y pensar que no. «La tecnología por si misma es neutra. Lo importante es lo que hagamos con ella», afirma. «Pongamos como ejemplo los aviones: podemos usarlos para viajar a cualquier lugar más rápido o para bombardear ciudades. Y con la Inteligencia Artificial ocurrirá lo mismo. Estoy covnencido de que habrá quien intente utilizarla con fines «malignos» (si se me permite usar esa expresión tan ambigua), pero quiero creer que prevalecerá nuestro sentido de la responsabilidad y que no diseñaremos máquinas cuya finalidad sea destruirnos».

El investigador considera que Isaac Assimov fue un auténtico visionario al formular sus célebres leyes de la robótica, y que deberíamos inspirarnos en el espíritu de las mismas a la hora de afrontar que papel jugará la IA en nuestro mundo. «El reto es que los principios éticos guien nuestro trabajo, para que los adelantos estén al servicio de lograr un mundo mejor. Por eso, creo que Hawking anda acertado en en el fondo de lo que dice, aunque sus declaraciones tenga un tono inflamado y espectacular que es necesario matizar».

Redacción QUO