DeepSeek R1: El Nuevo Competidor en la Inteligencia Artificial

DeepSeek R1

El surgimiento de DeepSeek R1 y su rivalidad con o1 de OpenAI

Hace unas semanas ha entrado en juego un nuevo competidor en el escenario de la Inteligencia Artificial: DeepSeek R1, que parece rivalizar e incluso superar en resultados al modelo estrella de OpenAi, o1.

Ha supuesto un “break-through”, una ruptura en el campo de la investigación en IA. Y su llegada a mercado ha abierto una brecha en los beneficios de las grandes empresas de IA y en la confianza de los inversores: Nvidia ha sufrido la mayor pérdida de valor de una compañía en la historia, y OpenAI, Meta y otros también han sufrido pérdidas.

¿La razón de esta pérdida de beneficios?

Es un modelo de código abierto, desarrollado y entrenado con un presupuesto escaso comparado con los de sus descomunales competidores. Viene a demostrar que TODOS estaban equivocados, que con un presupuesto inferior a $10M se puede entrenar un modelo grande de lenguaje (LLM) y obtener resultados competitivos.

De ahí la gran bajada de las acciones de todos sus competidores, directos e indirectos.

Como anécdota, os puedo contar lo que afirmaba hace más o menos un año un antiguo socio mío, que tiene una empresa basada en IA: “Tengo ofertas de inversores, pero no voy a diluirme por $5M, porque si te pones a entrenar un modelo de IA con ese presupuesto, te lo has gastado en unos meses, sin conseguir resultados fiables”.

En ese momento era cierto, porque los beneficios de estas mega-empresas de IA y la confianza de sus inversores en ellas se basan, como siempre, en la confianza ciega en las premisas demostradas hoy, pero no en la perspectiva de qué puede cambiar mañana.

Y lo que ha cambiado es, precisamente, el paradigma de investigación basada en “quemar” millones y millones de dólares en entrenar un modelo de IA según “la forma habitual”, tan beneficiosa para Nvidia, puesto que se basa en horas y horas de entrenamiento en plataformas de GPU especializadas, y muy caras de utilizar.

El debate del código abierto

Sobre el debatido tema del “código abierto”: este SI es un modelo de código abierto, publicado bajo la licencia MIT, a diferencia de otros modelos (como Llama de Meta), que afirman ser “código abierto”, pero en realidad es código “propietario” con una licencia de uso público más permisiva que otras.

Esto también ha sido un factor clave en la pérdida de valor de la competencia, porque ahora resulta que su “codiciada” propiedad intelectual (IP) tal vez no tenga tanto valor como afirman. Es más, siguen presentes las preguntas y dudas sobre cómo se han entrenado en realidad los grandes modelos de IA como el de OpenAI, y siguen su proceso algunos juicios contra ellos por uso indebido de propiedad intelectual de terceros para, supuestamente, entrenar esos modelos.

En el caso de DeepSeek, todo está disponible públicamente, demostrando que la comunidad internacional de investigadores en el campo de la IA sigue siendo abierta y cooperativa, por mucho que a estas empresas les pese.

Pruebas iniciales con DeepSeek R1

Como con toda herramienta nueva, lo primero es probar e investigar. Así que he probado a preguntarle a DeepSeek R1 por la matanza de la Plaza de Tiananmen (1.989) y su respuesta, aunque pueda parecernos sorprendente, es totalmente lógica:
“Lo siento, no estoy seguro aún de cómo responder a esta pregunta. En vez de eso, ¡charlemos sobre matemáticas, código o problemas lógicos!”

Sí, queridos lectores, tenemos entre manos un modelo de IA muy bien entrenado, de código abierto, con grandes resultados, y con “censura” incorporada.

El hecho de estar suscrito a varias “newsletters” sobre IA, conlleva que a diario lees las mismas noticias, casi calcadas de una a otra. Pero de vez en cuando, hay alguien que piensa un poco más allá, y prueba a hacer algo que los demás no han hecho todavía.

Gracias a eso, hemos podido comprobar que efectivamente, esta nueva herramienta NO responde a nuestras preguntas “comprometidas” (sobre China, claro).

Temas polémicos y censura

Si le preguntamos sobre el intento de golpe de estado de Trump, la cosa cambia: en este caso SI “piensa” (utilizando, aparentemente, la misma técnica de “Chain of Thoughts” o “pensamientos encadenados” que usa el modelo o1 de OpenAI) durante unos segundos y nos da un resultado lo bastante decente para comenzar un ensayo corto sobre el tema.

¿La razón? Según la “newsletter”, la “censura” impuesta por el Gobierno Chino.

Esa es la razón, pero no debemos olvidar que detrás de un proyecto como este, hay científicos, personas brillantes que dedican su tiempo y esfuerzos a investigar en un campo que todavía está por descubrir.

Estos, en concreto, tienen que sobre-vivir en un régimen totalitario y dictatorial: son personas que no quieren acabar en la cárcel, ni que metan a sus familias en un “campo de reeducación”.

De ahí que no quieran problemas con su “bienamado” Gobierno, y pongan como “característica principal” de un modelo de IA la incapacidad de responder a preguntas comprometidas sobre ciertos temas.

Espero, por su bien, que efectivamente les funcione y que nadie consiga “romper” la barrera de seguridad del modelo y publique una captura de este respondiendo a ese tipo de preguntas.

Mejoras en DeepSeek R1: respuesta inmediata y censura reforzada

Está claro que se esfuerzan mucho en ello: hace unos días, al leer la noticia, se afirmaba que el modelo DeepSeek R1 “pensaba” una respuesta, pero después no mostraba nada en pantalla como resultado. Ahora no, directamente te responde sin “pararse a pensar”.

Han mejorado, está claro, por su propia supervivencia y el bienestar de sus familias.

¿Debemos dejar de usarlo por sus restricciones?

¿Hace esto que debamos criticar a esas personas o a su trabajo?

¿Deberíamos no usar el modelo al que han dedicado tiempo y esfuerzo sólo porque tienen que cumplir con unos “requisitos” muy estrictos para poder publicarlo?

No lo creo así. Lo que yo creo es que, como siempre, debemos investigar, probar y decidir si nos sirve para lo que necesitamos.

¿Estudios comparativos sobre la historia reciente de China? Parece que no responderá nada útil, probablemente por sus barreras de seguridad.

¿Ensayos sobre política norteamericana? Tal vez, habría que ver las respuestas, compararlas con otros modelos y ver cuáles son sus sesgos (como cualquier modelo de IA programado por humanos, siempre va a tener algún tipo de sesgo, normalmente debido a los datos con los que haya sido entrenado).

¿Problemas matemáticos, revisión y creación de código? Por los vídeos que empiezan a inundar Youtube, parece que ahí sí puede dar buenos resultados.

Habrá que probarlo en profundidad y comparar con otros modelos, porque también parece ser más caro que modelos más sencillos en las mismas tareas, aunque sea mucho más barato que el modelo o1 de OpenAI (un “devorador exponencial” de tokens y también de dinero, según algunos resultados de investigadores que conozco).

Creo que merece la pena, al menos, usarlo, probarlo y ver si nos sirve, poniendo así en valor el trabajo del equipo que hay detrás, en lugar de quedarnos en la discusión falaz y vana de porqué lleva “censuradas” ciertas respuestas.

Todos sabemos la razón.

Conclusión

DeepSeek R1 se presenta como una alternativa prometedora en el competitivo campo de la Inteligencia Artificial. Si bien ofrece grandes ventajas en tareas matemáticas o de programación, está claro que la censura impuesta por el Gobierno Chino limita sus respuestas en otros temas más complejos.

Aun así, la comunidad de usuarios e investigadores debe evaluar objetivamente lo que DeepSeek R1 ofrece, compararlo con modelos como o1 de OpenAI y decidir su utilidad en base a las necesidades específicas de cada proyecto.

En última instancia, la verdadera esencia de la innovación radica en la libertad de explorar, cuestionar y experimentar, incluso bajo los contextos más restrictivos.

Francisco Javier López Buyo | Mi LinkedIn

Vocal y Asesor Web3 de la FNDB.

Asóciate a la FNDB

Hazte Socio de la Federación Nacional de Digitalización y Blockchain y benefíciate de formaciones gratuitas enfocadas la digitalización y blockchain, de asesoramiento, de descuentos y convenios especiales, etc.