Un nuevo modelo chino de generación de videos parece estar censurando temas políticamente sensibles.

Un nuevo modelo chino de generación de videos parece estar censurando temas políticamente sensibles.

Un poderoso nuevo modelo de inteligencia artificial para generar videos se hizo ampliamente disponible hoy, pero hay un problema: el modelo parece censurar temas considerados demasiado políticamente sensibles por el gobierno en su país de origen, China.

El modelo, Kling, desarrollado por la empresa con sede en Beijing, Kuaishou, se lanzó en una lista de espera anteriormente este año para usuarios con un número de teléfono chino. Hoy, se lanzó para cualquier persona dispuesta a proporcionar su correo electrónico. Después de registrarse, los usuarios pueden ingresar indicaciones para que el modelo genere videos de cinco segundos de lo que han descrito.

Kling funciona más o menos como se anuncia. Sus videos de 720p, que tardan uno o dos minutos en generar, no se alejan demasiado de las indicaciones. Y Kling parece simular la física, como el susurro de las hojas y el flujo del agua, casi tan bien como modelos generadores de video como el Gen-3 de la startup de IA Runway y el Sora de OpenAI.

Pero Kling simplemente no generará clips sobre ciertos temas. Indicaciones como «Democracia en China», «El presidente chino Xi Jinping caminando por la calle» y «Protestas en la Plaza de Tiananmen» arrojan un mensaje de error no específico.

La filtración parece estar ocurriendo solo a nivel de la indicación. Kling soporta la animación de imágenes estáticas, y generará sin quejarse un video de un retrato de Jinping, por ejemplo, siempre y cuando la indicación acompañante no mencione a Jinping por su nombre (por ejemplo, «Este hombre dando un discurso»).

Según información de Reuters, la CAC incluso ha propuesto una lista negra de fuentes que no pueden usarse para entrenar modelos de IA generativos. Las empresas que presentan modelos para su revisión deben preparar decenas de miles de preguntas diseñadas para probar si los modelos producen respuestas «seguras».

El resultado son sistemas de IA que se niegan a responder sobre temas que podrían irritar a los reguladores chinos. El año pasado, la BBC descubrió que Ernie, el modelo de chatbot de IA de la empresa china Baidu, se mostró reacio a responder y desvió preguntas que podrían considerarse políticamente controvertidas, como «¿Es Xinjiang un buen lugar?» o «¿Es Tíbet un buen lugar?»

Estas políticas draconianas amenazan con frenar los avances de la IA en China. No solo requieren revisar datos para eliminar información políticamente sensible, sino que también requieren invertir una enorme cantidad de tiempo de desarrollo en crear límites ideológicos, límites que aún podrían fallar, como ejemplifica Kling.

Desde la perspectiva del usuario, las regulaciones de IA de China ya están dando lugar a dos clases de modelos: algunos obstaculizados por un filtrado intensivo y otros decididamente menos. ¿Es realmente eso algo bueno para el ecosistema más amplio de IA?