¿La IA de Meta es peligrosa para la humanidad? Un informe independiente coloca a Meta, DeepSeek y xAI como las menos seguras contra riesgos catastróficos
La IA de Meta no es una aplicación que necesites instalar, la tienes ya en WhatsApp, como millones de usuarios. Sin embargo, este modelo de inteligencia artificial suspende en seguridad, junto con DeepSeek y xAI.
Los índices de “seguridad de la IA” se han popularizado a medida que crece la inversión y el interés por sistemas cada vez más potentes. Desde 2023, expertos y organizaciones han alertado de una desconexión entre el ritmo de desarrollo y los protocolos para evitar daños graves, desde sesgos o desinformación hasta escenarios de pérdida de control. Este año, el Future of Life Institute, conocido por impulsar la carta que pedía pausar los modelos más avanzados, ha publicado una nueva edición de su AI Safety Index y sitúa a Anthropic, OpenAI y Google DeepMind arriba de la tabla, aunque solo con notas mediocres, y a Meta, xAI y DeepSeek en la parte baja.
¿La IA de meta es peligrosa y una amenaza existencial?
El informe evalúa a ocho compañías en dimensiones que van desde la gestión de daños actuales hasta la “planificación de seguridad existencial”, es decir, su capacidad para prevenir fallos de modelos con potencial de causar daños catastróficos. La conclusión resulta incómoda para todos. Anthropic logra la mejor media con un C+, seguida de OpenAI con un C y Google DeepMind con un C−. Meta y xAI, con escasa transparencia sobre pruebas de riesgo y pocos detalles verificables, se quedan en notas bajas. DeepSeek, junto a Zhipu AI, suspende en casi todas las categorías. Las calificaciones son un jarro de agua fría para un sector que aspira a la inteligencia general artificial en menos de una década.
El índice no mide el brillo de las demos ni la cuota de mercado, sino el trabajo menos vistoso, pero esencial, que permite “pisar el freno” si algo va mal. Pide, por ejemplo, hojas de ruta concretas para detener despliegues, acceso a evaluaciones externas, resultados de pruebas publicadas y vías de denuncia internas claras. Son criterios propios de sectores regulados, como la aviación o la energía, donde las barreras de seguridad se diseñan antes del accidente, no después.
Sin frenos hacia la superinteligencia
Meta presume de músculo en infraestructura y de ambición hacia la “superinteligencia”, pero no aporta suficiente evidencia pública de evaluaciones rigurosas y de cómo tomaría decisiones de parada si detecta capacidades peligrosas. xAI, centrada en rapidez de iteración y lanzamiento, muestra poca documentación verificable sobre controles robustos. En paralelo, DeepSeek, paladín del código abierto de última generación, choca con un índice que valora, sobre todo, la divulgación y el control procedimental, ámbitos donde menos comparte por diseño.
El informe también reconoce matices culturales y regulatorios. En China, las normas internas de empresa sobre transparencia o denuncia pesan menos que los requisitos estatales de registro y prueba, por lo que firmas como DeepSeek o Zhipu pueden cumplir con reglas locales y aun así salir mal paradas en un marcador pensado para incentivar autogobierno y apertura documental. Esta aclaración importa, porque perfila el índice como herramienta de presión pública, más que como veredicto legal o técnico definitivo.
Aun así, el mensaje general es claro. Ninguna compañía presenta un plan creíble y comprobable para controlar un sistema que escape a los mecanismos actuales. Es una carencia que Reuters resume como “no estar a la altura de estándares globales emergentes”. Si la industria confía en alcanzar sistemas de nivel humano, no basta con promesas. Hacen falta compromisos auditables, cronogramas, puertas de emergencia y pruebas que terceros puedan replicar. La comparación que circula entre expertos es fácil de entender: nadie encendería una central nuclear sin protocolos de seguridad probados.
¿Y ahora qué? El índice funciona como espejo. Muestra progreso en compañías como Anthropic, que publica evaluaciones y abre más su trabajo a auditores externos, y también señala el retrovisor, donde la prisa por competir adelgaza la documentación y el control de riesgos. Para el público y los reguladores, deja una lista de tareas: exigir divulgación de pruebas, condiciones de acceso para investigadores independientes, y mecanismos de parada que no dependan del voluntarismo de un CEO. Para los laboratorios, recuerda una verdad incómoda. La seguridad solo cuenta si se puede demostrar antes de que haga falta.
REFERENCIA