DeepSeek V3, una nueva forma de desarrollar y acceder a la inteligencia artificial

  • Opinión
Proportione Javier Cuervo

El lanzamiento de DeepSeek ha sido un punto de inflexión en la estrategia de inteligencia artificial global. Su impacto ha sido inmediato y ha generado un intenso debate en el sector sobre las estrategias tecnológicas, la seguridad de los modelos de IA y el futuro de la competencia en este campo.

El lunes 27 de enero marcó un antes y un después en el sector tecnológico. NVIDIA, el gigante de los semiconductores y proveedor clave para la revolución de la inteligencia artificial, sufrió la mayor caída bursátil de su historia, perdiendo un 16,86% de su valor en un solo día, lo que supuso una reducción de 589.000 millones de dólares en su capitalización de mercado. No fue un fenómeno aislado: el desplome se extendió a todo el sector tecnológico estadounidense, eliminando más de 1,5 billones de dólares en valor de mercado. La excepción fue Apple, que logró un aumento del 3% en sus acciones.

Detrás de este terremoto financiero no hubo fallos en los productos de NVIDIA ni un giro en la política monetaria global, sino el lanzamiento de DeepSeek V3, un modelo de inteligencia artificial desarrollado por una startup china con menos de dos años en el mercado.

Lo que hace disruptivo a DeepSeek V3 no es su capacidad bruta de cómputo, sino su arquitectura y modelo de acceso. A diferencia de OpenAI o Google, que han optado por modelos cerrados y controlados por infraestructuras propietarias, DeepSeek ha apostado por una estrategia de código abierto, permitiendo a cualquier usuario descargar, modificar y desplegar el modelo en sus propios servidores.

Su arquitectura técnica también marca una diferencia. DeepSeek V3 utiliza una metodología basada en Mixture of Experts (MoE), lo que significa que, en lugar de activar todo el modelo en cada consulta, selecciona y ejecuta solo los submodelos especializados necesarios para la tarea. Este enfoque permite reducir drásticamente el consumo energético y los costos operativos.

El entrenamiento del modelo es otro punto de controversia. Mientras que OpenAI invirtió más de 100 millones de dólares en la computación necesaria para desarrollar GPT-4, DeepSeek asegura haber gastado solo 5,6 millones de dólares, utilizando 2.048 chips NVIDIA H800. Esta afirmación ha generado dudas en la comunidad, ya que una inversión tan baja no parece suficiente para alcanzar niveles de rendimiento comparables con los grandes modelos de IA actuales.

Las dudas sobre la calidad y precisión de DeepSeek

Si bien la eficiencia de DeepSeek es un factor atractivo, su desempeño real plantea interrogantes. Una auditoría realizada por NewsGuard evaluó la precisión de distintos modelos de IA y ubicó a DeepSeek en la posición 10 de 11 modelos analizados. El informe reveló que el chatbot falló en el 83% de las pruebas de veracidad en noticias, repitiendo información falsa en el 30% de los casos y ofreciendo respuestas ambiguas o sin contenido útil en el 53%. Solo el 17% de las veces corrigió información incorrecta.

Además, en tres de cada diez consultas, DeepSeek incluyó información alineada con la narrativa del gobierno chino, incluso en preguntas sin relación política. Esto ha encendido alarmas sobre el riesgo de sesgo ideológico en el modelo y su potencial uso para manipulación informativa.

Otro aspecto preocupante es la falta de actualización de DeepSeek. Según la propia startup, el modelo dejó de entrenarse en octubre de 2023, lo que lo deja sin información relevante sobre eventos de 2024 y 2025. Este rezago en la actualización limita su utilidad para sectores que requieren datos actualizados, como la ciberseguridad y la investigación de amenazas emergentes.

Riesgos asociados a la infraestructura de DeepSeek

Más allá de las preocupaciones sobre precisión y sesgo, la ciberseguridad es otro punto crítico en el debate sobre DeepSeek. Al ser un modelo de código abierto y con una infraestructura basada en servidores chinos, no hay claridad sobre cómo se almacenan y gestionan los datos de los usuarios.

Países como Australia han emitido advertencias sobre los riesgos de privacidad asociados con el uso de DeepSeek, y la Marina de EE.UU. ha prohibido su uso entre su personal debido a posibles vulnerabilidades en la transmisión de datos. Si bien DeepSeek puede ejecutarse en servidores privados, las interacciones con el modelo podrían exponer información sensible sin una garantía clara sobre su destino final.

Además, OpenAI y Microsoft han abierto investigaciones sobre la posibilidad de que DeepSeek haya utilizado técnicas de destilación para extraer conocimiento de los modelos de OpenAI. La destilación es una forma de ingeniería inversa que permite entrenar modelos más pequeños replicando el comportamiento de otro más avanzado a partir de sus respuestas.

Microsoft ha revelado que, a finales de 2024, detectó tráfico sospechoso de datos desde OpenAI hacia cuentas vinculadas a DeepSeek. Investigadores independientes sugieren que la startup china podría haber recopilado masivamente respuestas de OpenAI para ajustar sus propios modelos. Si esta hipótesis se confirma, DeepSeek podría enfrentar restricciones legales y comerciales en mercados occidentales.

Impacto en la industria y respuesta de Estados Unidos

El lanzamiento de DeepSeek ha sido un punto de inflexión en la estrategia de inteligencia artificial global. Su modelo de código abierto y su enfoque en eficiencia han acelerado el debate sobre el futuro de la IA y la necesidad de revisar los modelos de negocio de las grandes tecnológicas.

En respuesta, Donald Trump ha anunciado un plan para invertir 500.000 millones de dólares en infraestructura de inteligencia artificial en EE.UU. en los próximos cuatro años. El objetivo es garantizar que la innovación en IA no dependa exclusivamente de empresas privadas y fortalecer la competitividad frente a modelos emergentes como DeepSeek.

Además, el gobierno de EE.UU. podría considerar restricciones regulatorias y controles sobre modelos de código abierto, ante el riesgo de que puedan ser explotados para generar contenido desinformativo o sean utilizados en entornos no seguros.

El desafío de la IA abierta y el futuro de la industria

DeepSeek V3 ha puesto sobre la mesa una nueva forma de desarrollar y acceder a la inteligencia artificial, desafiando el modelo tradicional de plataformas cerradas. Su código abierto y su eficiencia energética podrían ser una ventaja competitiva, pero sus problemas de precisión, seguridad y transparencia aún generan dudas sobre su viabilidad a largo plazo.

Para las empresas, el caso de DeepSeek deja varias lecciones estratégicas. La IA no solo es una cuestión de potencia computacional, sino de gestión de riesgos, calidad de datos y seguridad. La apertura de modelos puede acelerar la innovación, pero también introduce nuevas vulnerabilidades.

El futuro de la inteligencia artificial dependerá de cómo se equilibren estos factores. La clave no estará solo en la capacidad de cómputo, sino en la combinación de talento, estrategia y ciberseguridad para garantizar que los modelos sean confiables, eficientes y seguros en un entorno cada vez más competitivo.

Por Javier Cuervo, profesor de Innovación en UNIE y CTO de Proportione