Aunque ChatGPT se había convertido en sinónimo de inteligencia artificial efectiva y accesible para todo el mundo, DeepSeek supone toda una revolución técnica
En el universo de la inteligencia artificial, con nombres ChatGPT, Grok o Gemini, ha irrumpido por sorpresa un nuevo contendiente: DeepSeek.
ChatGPT nació en los laboratorios de OpenAI, una empresa que ha sido pionera en el desarrollo de modelos de lenguaje basados en la arquitectura Transformer. Su familia de modelos, conocida como GPT (Generative Pre-trained Transformer), ha evolucionado desde GPT-1 hasta GPT-4, cada vez más sofisticada y capaz. ChatGPT es, en esencia, un conversador. Su misión es entender el lenguaje humano y generar respuestas que parezcan naturales y coherentes.
Imagina que le preguntas a ChatGPT: «¿Qué es la fotosíntesis?». El modelo analiza tu pregunta, busca en su vasta base de datos (entrenada con millones de textos) y te responde con una explicación clara y detallada. Su fortaleza radica en su capacidad para mantener conversaciones fluidas y adaptarse a contextos variados, desde explicar conceptos científicos hasta escribir poesía.
DeepSeek, por otro lado, pertenece a DeepSeek Artificial Intelligence Co., Ltd., una empresa china que ha optado por un enfoque más amplio. DeepSeek no se limita al texto, es un sistema multimodal, lo que significa que puede procesar y combinar diferentes tipos de datos, como texto, imágenes y sonido. DeepSeek está diseñado para operar en entornos dinámicos y en tiempo real, lo que lo hace ideal para aplicaciones como la conducción autónoma o la vigilancia inteligente.
Por ejemplo, si le muestras a DeepSeek una imagen de un semáforo en rojo y le preguntas: «¿Qué debo hacer?», el sistema no solo analiza la imagen, sino que también la contextualiza con datos en tiempo real, como la velocidad del vehículo o las condiciones del tráfico, para ofrecer una respuesta precisa: «Debes detenerte.» Esta capacidad de integrar múltiples fuentes de información es lo que distingue a DeepSeek.
Dos formas de entrenar
La gran innovación de DeepSeek es que elimina las dos últimas fases. Como explican sus creadores en una publicación en ArXiv, el primer modelo llamado DeepSeek-R1-Zero parte de un modelo preentrenado llamado DeepSeek-V3-Base, que tiene 671.000 millones de parámetros. La etapa de ajuste fino supervisado se omite por completo. Para ejecutar el aprendizaje por refuerzo a gran escala, en lugar de utilizar retroalimentación humana o de IA, se emplea un método de aprendizaje basado en reglas.
Dado un problema, se introduce en el modelo y se muestrea un grupo de salidas, es decir, de respuestas basadas en distintos razonamientos. El sistema observa estas salidas muestreadas y entrena al modelo para que genere las opciones preferidas calculando una recompensa para cada salida mediante reglas predefinidas: precisión (por ejemplo a la hora de hacer un cálculo matemático) y formato, en el que cada salida se compone de un razonamiento y una respuesta.
Este método supone un tremendo ahorro en el tiempo y los recursos necesarios para entrenar al modelo. Para empezar, DeepSeek se ha entrenado con chips más antiguos y baratos. Por eso, su desarrollo costó 5,6 millones de dólares para alquilar el hardware necesario para entrenar el modelo, frente a los 60 millones estimados para el modelo Llama de Meta o los más de 100 millones de GPT-4.
Código abierto
Además, el modelo de DeepSeek también es de código abierto, en lugar de estar estrechamente protegido por derechos de propiedad intelectual, lo que a su vez le ayuda a sortear las restricciones regionales que imponen los países y áreas de influencia como la Unión Europea.
El modelo de DeepSeekse publica en modo abierto, lo que significa que puede utilizarse como herramienta para que los investigadores de todo el mundo estudien y construyan sobre él. En comparación, los modelos existentes en el mercado son lo que los investigadores consideran una «caja negra», un sistema cerrado controlado por los desarrolladores. Esto allana el camino para que los científicos aprovechen un modelo existente para sus propios usos, en lugar de construir otros desde cero.
El chatbot de DeepSeek se lanzó el 26 de diciembre del año pasado, y se comprobó que funcionaba tan bien como los principales GPT de EE.UU., aunque no tuvo gran repercusión. Pero todo cambió de la noche a la mañana el 27 de enero de 2025, cuando DeepSeek se había convertido en la aplicación de inteligencia artificial número uno. La salida al público de DeepSeek ha hecho saltar por los aires el valor en bolsa de pesos pesados como Nvidia y OpenAI, que han perdido en conjunto un billón de dólares de su cotización. De repente, los Estados Unidos ya no tienen el dominio de la tecnología de inteligencia artificial.
REFERENCIA
DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning