La mayor obsesión de EE.UU. en su lucha tecnológica contra la potencia que amenaza su hegemonía ha sido mantenerse a la vanguardia del desarrollo de la Inteligencia Artificial: lo venía logrando con comodidad. Esto cambió en la misma semana que asumió Donald Trump. ¿El saludito de bienvenida? Los chinos parecen haber ascendido en la tabla de posiciones de la IA para compartir ya esa cima con su adversario. Cuando a EE.UU. se le mueve la estantería, repercute en Wall Street: las acciones de Nvidia –mayor productor de microchips de EE.UU. para la IA– se desplomaron en un día por un valor de 589.000 millones de dólares: nunca en la historia le había pasado algo así a una empresa. Hay graves problemas, desde la perspectiva norteamericana. Pero el partido recién comienza y China lo acaba de empatar. Para analizar las estrategias de cada contendiente se entrevistó a Javier Blanco, doctor en Informática por la Universidad de Eindhoven en los Países Bajos, profesor titular en la Universidad Nacional de Córdoba y director de la Maestría en Tecnología, Política y Culturas. Se especializa en temas de filosofía de la computación y los vínculos entre tecnología y política.
–Usted sabe de programación. Diseccionemos a DeepSeek R1 desde esta perspectiva y comparemos con ChatGPT. Son programas muy sofisticados y la calidad de respuestas y búsquedas que ofrecen están a la misma altura, según mi experiencia. ¿Qué los emparenta?
–Si bien en un cierto sentido son programas sofisticados, desarrollados a partir de técnicas y procesos complejos y costosos, en un sentido conceptual son sorprendentemente simples. A diferencia de otras ramas de la informática, los programas de machine learning son en general clasificadores estadísticos, capaces de reconocer y de generar patrones complejos que satisfagan ciertos criterios implícitos obtenidos a partir de los datos. En el caso de los modelos de lenguaje, como DeepSeek o ChatGPT aprenden a reconocer frases correctas. El generador produce frases al azar que son aceptables para el clasificador. Algo similar pasa con las imágenes. Luego de un entrenamiento con fotos de elefantes, el programa aprende a reconocer si hay elefantes en una foto nueva. Como sistemas algorítmicos son bastante simples. La complejidad está en el proceso de desarrollo, en la matemática usada para obtenerlos y en la cantidad de datos procesados. Tanto DeepSeek como ChatGPT pertenecen al grupo de programas que ocupan la primera plana en los últimos tiempos, los Grandes Modelos de Lenguaje (LLM por sus siglas en inglés) y sus similitudes en el funcionamiento son ostensibles. A diferencia de la mayoría de los desarrollos de software, los LLM necesitan detrás grandes infraestructuras computacionales y acceso a enormes repositorios de datos (esta última es la complejidad, no tanto el software). Quizá sea esta una de las razones de las enormes inversiones, muchas veces deficitarias. Estas espaldas económicas tan anchas que se suelen necesitar para estos desarrollos de IA incrementan las ventajas de las grandes corporaciones para picar en punta –aún perdiendo plata– y conformar monopolios u oligopolios.
–¿Qué los diferencia?
–Entre las diferencias que tiene y/o dice tener DeepSeek, está el hecho de que fue hecha en China. Esto no sólo es una importante diferencia cultural sino también de contexto de producción. La adopción de un modelo abierto de software es fundamental y creo que eso va a alentar una cultura colaborativa en la producción de machine learning, análoga a la ya consolidada del software libre. La mayoría de los LLM fueron desarrollados en EE.UU. por lo que se enmarcan en un contexto cultural determinado, lo cual introduce, a veces de manera implícita, sesgos particulares. Si consideramos que existen diferentes “cosmotécnicas” –formas de articular técnicamente una visión del mundo con formas normativas y prácticas– es esencial una variedad amplia en la producción de programas como los LLM que son tan usados e influyen en el devenir de las culturas. También será necesario desarrollar modelos propios en el sur global, cuyas especificidades exceden ampliamente la “cultura occidental”.
–Es curioso que la mayor amenaza a la hegemonía de Silicon Valley no llegó de una de las big-techs chinas –Baidu, Alibaba, Tencent, Xiaomi y Huawei– sino de una startup poco conocida. Esta empresa no pica en punta: sería lo que en EE.UU. llaman un copycat, una imitación. No inventaron la rueda pero la alivianaron y achicaron los costos. ¿Qué información maneja al respecto?
–Hasta donde se sabe, tanto el costo de procesamiento como el de horas de trabajo humano fue mucho menor que los desarrollados en EE.UU. Habrá que sopesar bien las causas y las posibilidades que se abren. Es difícil dimensionar la relevancia de este avance tecnológico en la disputa geopolítica por el liderazgo de la IA, pero demuestra empíricamente la posibilidad de modelos alternativos de desarrollo. El objetivo manifiesto del gerente de DeepSeek no es la valorización financiera de su empresa, sino sumarse al avance del conocimiento de vanguardia. Y al proponerlo con un modelo de código abierto, se incorpora a una cultura tecnológica rica y transformadora con una historia interesante y exitosa. Es de esperar, como lo expresa el gerente de la compañía, que el compromiso con el código abierto favorezca la evolución de un ecosistema productivo en China, o incluso en el resto del mundo.
–Se acusa a DeepSeek de haberle robado los programas algorítmicos a ChatGPT. ¿Es posible técnicamente eso? ¿Mediante topos? ¿Hackeos?
–Circulan hipótesis y supuestas declaraciones, pero hay que ver qué queda cuando se disipe el humo. No hacen falta topos ni hackeos, no hay grandes secretos por develar, quizá sólo cierto know-how y conocimiento tácito que podría servir para otros emprendimientos, pero no es algo que pueda robarse. Escuché que se acusa a DeepSeek de usar a ChatGPT como modelo para “destilación” en el entrenamiento del propio. Un LLM ya desarrollado puede usarse para acelerar el entrenamiento de uno nuevo, tomándolo como un “oráculo” para mejorar la clasificación de las respuestas del nuevo modelo. Incluso si se hubiera usado de esa manera, sería un buen uso de los recursos, aprovechando el tiempo y recursos empleados en el primer modelo, para construir otros nuevos de manera más eficiente. Creo que esto muestra una buena alternativa para formas de desarrollo abiertas por venir.
–Surge una nueva estrella entre los CEO tecnológicos: Liang Wenfeng, empresario de Guangdong con perfil opuesto a Elon Musk. Ha dicho que parte de su éxito se debe a que DeepSeek estaría centrada en la investigación y no el lucro: “Nuestro principio no es perder dinero, ni obtener enormes ganancias… nuestro punto de partida no es aprovechar la oportunidad de hacer una fortuna, sino estar a la vanguardia de la tecnología y promover el desarrollo de todo el ecosistema”. Si es cierto, detrás estaría el Estado chino, al estilo modelo tigreasiático.
–Ojalá esto sea el inicio de una nueva cultura del desarrollo de modelos de machine learning, donde la experiencia de otros sea un insumo para el desarrollo. Si bien este tipo de cultura fue importante en los inicios del machine learning –gracias a la disponibilidad de modelos y bases de datos para entrenamiento– en el último tiempo las grandes corporaciones están “cerrando” sus sistemas y usando infraestructuras que no pueden ser replicadas por actores más chicos. El problema no es sólo el lucro como principio rector, sino que se busca la valorización bursátil de las empresas que en general, son deficitarias. Paradójicamente, dado el bajo costo de producción de DeepSeek, es de las pocas que pueden llegar a tener ganancia y recuperar el dinero invertido, y no meramente depender de subsidios y de los avatares de Wall Street. Es curioso que los defensores del libre mercado entren en pánico cuando aparece algún atisbo de competencia real.