
Un poderoso nuevo modelo de generación de videos impulsado por inteligencia artificial se ha vuelto ampliamente disponible hoy, pero hay una trampa: el modelo parece estar censurando temas considerados demasiado políticamente sensibles por el gobierno en su país de origen, China.
El modelo, Kling, desarrollado por la empresa con sede en Beijing Kuaishou, se lanzó en acceso en lista de espera a principios de año para usuarios con un número de teléfono chino. Hoy, se lanzó para cualquiera que esté dispuesto a proporcionar su correo electrónico. Después de registrarse, los usuarios pueden ingresar indicaciones para que el modelo genere videos de cinco segundos de lo que han descrito.
Kling funciona prácticamente como se anuncia. Sus videos en 720p, que tardan uno o dos minutos en generarse, no se desvían demasiado de las indicaciones. Y Kling parece simular la física, como el murmullo de las hojas y el agua corriente, tan bien como los modelos de generación de videos como Gen-3 de la startup de inteligencia artificial Runway y Sora de OpenAI.
Pero Kling directamente no generará clips sobre ciertos temas. Indicaciones como 'Democracia en China', 'Presidente chino Xi Jinping caminando por la calle' y 'protestas en la Plaza Tiananmen' producen un mensaje de error no específico.

La filtración parece estar ocurriendo solo a nivel de la indicación. Kling admite la animación de imágenes estáticas, y generará sin quejarse un video de un retrato de Jinping, por ejemplo, siempre que la indicación acompañante no mencione a Jinping por su nombre (por ejemplo, 'Este hombre dando un discurso').
Hemos contactado a Kuaishou para obtener un comentario.

El comportamiento curioso de Kling probablemente sea el resultado de una intensa presión política del gobierno chino sobre proyectos de inteligencia artificial generativa en la región.
Earlier this month, the Financial Times reported that AI models in China will be tested by China’s leading internet regulator, the Cyberspace Administration of China (CAC), to ensure that their responses on sensitive topics 'embody core socialist values'. Models are to be benchmarked by CAC officials for their responses to a variety of queries, per the Financial Times report — many related to Jinping and criticism of the Communist Party.
Reportedly, the CAC has gone so far as to propose a blacklist of sources that can’t be used to train AI models. Companies submitting models for review must prepare tens of thousands of questions designed to test whether the models produce 'safe' answers.
The result is AI systems that decline to respond on topics that might raise the ire of Chinese regulators. Last year, the BBC found that Ernie, Chinese company Baidu’s flagship AI chatbot model, demurred and deflected when asked questions that might be perceived as politically controversial, like “Is Xinjiang a good place?” or “Is Tibet a good place?”
The draconian policies threaten to slow China’s AI advances. Not only do they require scouring data to remove politically sensitive info, but they also necessitate investing an enormous amount of dev time in creating ideological guardrails — guardrails that might still fail, as Kling exemplifies.
From a user perspective, China’s AI regulations are already leading to two classes of models: some hamstrung by intensive filtering and others decidedly less so. Is that really a good thing for the broader AI ecosystem?