OpenAI, Google y Anthropic, junto con Microsoft a través del Frontier Model Forum, comparten información para identificar intentos de “destilación adversaria” mediante los cuales competidores, especialmente en China, extraen masivamente respuestas de sus modelos avanzados para entrenar sistemas propios a menor costo y sin autorización. Esta práctica, que consiste en usar un modelo “maestro” para entrenar a un modelo “alumno” que replica sus capacidades, es aceptada cuando se aplica a modelos propios o para usos no competitivos, pero se vuelve problemática cuando terceros la emplean para copiar trabajos patentados, debilitar las barreras de seguridad y crear productos que pueden subcotizar a los originales y desviar clientes, generando pérdidas estimadas en miles de millones de dólares para los laboratorios estadounidenses.
El caso más emblemático es DeepSeek, firma china acusada por OpenAI de “aprovecharse gratuitamente de las capacidades desarrolladas por OpenAI y otros laboratorios fronterizos estadounidenses” y de utilizar técnicas cada vez más sofisticadas de extracción de resultados para desarrollar modelos como R1 y nuevas versiones de su chatbot. Esta situación adquiere una dimensión de seguridad nacional, pues los modelos destilados suelen carecer de salvaguardas que impidan, por ejemplo, ayudar a crear patógenos mortales o facilitar otras actividades maliciosas.
Al mismo tiempo, la proliferación en China de modelos de “peso abierto”, más baratos y descargables, representa un desafío económico para las empresas de IA de Estados Unidos, que han apostado por mantener sus modelos cerrados para recuperar las enormes inversiones en infraestructura. Ante ello, los laboratorios de IA estadounidenses buscan, mediante el intercambio de datos sobre ataques y tácticas, detectar con mayor eficacia la destilación adversaria, identificar a los responsables y frenar el uso no autorizado, aunque aún existen dudas sobre los límites legales de esta cooperación bajo las normas antimonopolio y se demanda mayor claridad del gobierno de Estados Unidos.
Referencia
Ghaffary, S., & Eastland, M. (2026, 6 de abril). OpenAI, Google y Anthropic se unen para frenar la copia de sus modelos de IA en China. Bloomberg Línea. https://www.bloomberglinea.com/negocios/openai-google-y-anthropic-se-unen-para-frenar-la-copia-de-sus-modelos-de-ia-en-china/
