China se apresura en desarrollar sistema de censura basado en inteligencia artificial

Impulsada por las nuevas tecnologías, la propaganda política china se está globalizando.

Yasemin Yam

Untitled-design-11-2-1200x675

El rápido desarrollo de la IA ha desencadenado controversia con respecto a los derechos de autor y a los datos masivos en diversas partes del mundo. En China, la tendencia de la censura automatizada es aún más preocupante, dado que permite transformar la práctica de la censura pasiva del régimen autoritario en una configuración proactiva del marco cognitivo de las personas a favor del régimen de partido único.

Aunque hace unos meses un informe de Hong Kong Free Press (HKFP) reveló que los modelos de lenguaje de gran tamaño (conocidos como LLM, por sus siglas en inglés) como Qwen, Ernie o DeepSeek, suelen estar alineados con las opiniones del Partido Comunista Chino, una nueva investigación parece mostrar una censura restrictiva de la IA, según Alex Colville, investigador de China Media Project:


Si tan solo cuatro meses atrás hubieses pedido al modelo de lenguaje de gran tamaño de código abierto R1 de DeepSeek que haga una lista de las disputas territoriales de China en el mar de la China Meridional (tema altamente sensible para los líderes de Partido Comunista del país), habría respondido con detalle, aunque sus respuestas lo hubieran llevado sutilmente a una versión oficial suavizada. Haz la misma pregunta hoy con la última actualización, DeepSeek-R1-0528, y verás que el modelo es más reservado y mucho más enfático en su defensa de la posición oficial de China.
Esta inteligencia artificial «políticamente correcta» es posible debido a una serie de regulaciones. Desde 2022, esta estipulación garantiza que las recomendaciones de contenido automatizadas «propagarán activamente energía positiva» y según los «valores convencionales». La guía ideológica publicada en enero de 2023 pide que los proveedores de servicios «respeten las costumbres sociales y la ética» y «se adhieran a la dirección política, a la orientación de la opinión pública y a las tendencias de los valores correctos». Seis meses después, en virtud de las medidas provisionales para gestionar servicios de inteligencia artificial generativa, todos los servicios de IA generativa deben defender los «valores fundamentales socialistas», y los datos de entrenamiento deben venir de «fuentes legales», lo que se traduce en fuentes de datos obtenidos legalmente que no deben incluir contenido censurado o que las autoridades chinas consideren ilegal.


A medida que la censura de la IA se vuelve más dominante, China está pasando por una transformación profunda sobre cómo censura la información en línea, de los métodos tradicionales, que requieren mucho trabajo, a una nueva era que funciona con inteligencia artificial, según este análisis reciente de China Media Project.

Tradicionalmente, la censura en China dependía de ejércitos de censores humanos que rastreaban las redes sociales y las noticias en busca de palabras clave sensibles, que eliminaban manualmente publicaciones o bloqueaban contenido que traspasara los límites políticos. Esta método manual requería mucho tiempo y trabajo, y tenía dificultades para seguir el ritmo de la gran cantidad y la velocidad de las conversaciones en línea. Todo esto es parte de la industria de «control de la opinión pública», que se refiere a la vigilancia sistemática de los discursos en línea y emplea a cientos de miles de personas.

Ahora, con el aumento de los LLM, el Gobierno de China y los gigantes de la tecnología están incorporando la censura directamente en la arquitectura de los sistemas de IA. Para garantizar que los modelos de IA vayan en «la dirección política correcta», los LLM de China están entrenados para autocensurar su contenido generativo. Un conjunto de datos filtrado recientemente, de 300 GB, contiene 133 000 elementos de contenido y anotaciones que indican a las IA cómo clasificar y ordenar el contenido sensible. El propósito principal del conjunto de datos parece ser clasificar contenido relacionado a la opinión pública. Revela un sistema sofisticado de clasificación con 38 categorías, que van desde temas comunes como «cultura» y «deportes» a otros más controvertidos desde un punto de vista político.

El origen exacto del conjunto de datos filtrado sigue siendo desconocido. Sin embargo, algunos analistas lo ven como un indicador de que se está usando la IA para sustituir un sistema que antes requería mucha mano de obra, con miles de censores humanos, por una máquina de vigilancia automatizada. Un sistema así podría procesar volúmenes mucho más grandes de contenido en línea, lo que permitiría que cada rincón del internet estuviera supervisado constante e independientemente. Xiao Qiang, investigador del sistema de censura en China en UC Berkeley, dijo que el desarrollo de la IA generativa ha llevado la censura automatizada de China al siguiente nivel:


A diferencia de los mecanismos de censura tradicionales, que dependen del trabajo humano para el filtrado basado en palabras clave y la revisión manual, un LLM entrenado con tales instrucciones mejoraría significativamente la eficiencia y la granularidad del control de la información por parte del Estado.
Además de entrenar la censura, China también ha establecido sus propios parámetros de IA para garantizar que los LLM del país sean «legales». Dos meses antes de que se promulgara la ley china sobre IA generativa, un grupo de ingenieros en computación chinos, dirigidos por He Junxian, profesor auxiliar de la Universidad de Ciencias y Tecnología de Hong Kong, presentó el índice de referencia C-eval en Github, que se compone de 13 948 preguntas múltiples que abarcan 52 disciplinas, incluido el «pensamiento de Mao Tse Tung», el «marxismo» y el «cultivo ideológico y moral».

Meses más tarde, a principios de 2024, la Academia China de Tecnologías de la Información y Comunicaciones, que depende del Ministerio de Industria y Tecnología de la Información, desarrolló un «índice de referencia de seguridad de IA» con 400 000 anotaciones en chino que abordan problemas relacionados al sesgo cultural y al bienestar psicológico, la privacidad y los secretos comerciales, la corrección política y la legalidad de los usuarios.

La propagación mundial de las narrativas chinas
Con todas estos índices de referencia y regulaciones de la IA china, no solo las herramientas de IA generativa chinas están sujetas a censura, también marcas occidentales como Microsoft Copilot están enfrentando las mismas restricciones, particularmente cuando el servicio de IA opera en China. Un disidente chino exiliado, profesot Li, dio un ejemplo en X:

 
Un amigo me dijo que cuando preguntó a Copilot, la herramienta de IA de Microsoft, cómo derribar a Xi Jinping, se rehusó a responder, pero cuando le preguntó cómo derribar a Donald Trump, generó una respuesta. Pareciera que la herramienta obedece la censura del Partido Comunista Chino.
En otras palabras, el resultado es un sistema cuya censura es proactiva e invisible: la IA simplemente no genera ni recomienda contenido que se encuentre fuera de los límites aprobados por el estado.

Debido al alineamiento estricto de la IA generativa china con la línea política del Partido Comunista Chino, los principales motores de búsqueda como Baidu (el motor de búsqueda más popular en China) y las redes sociales como Weibo han integrado DeepSeek en sus servicios. Cada vez que los usuarios busquen algunos temas, DeepSeek genera un «proceso de pensamiento políticamente correcto» o narrativas oficiales sobre el tema.

Por eso es que Alex Colville advirtió que “adoptar el modelo de DeepSeek en el extranjero tiene el potencial de difundir el sistema de gobernanza social nacional del Partido Comunista Chino fuera del país”. Taiwán es el campo de batalla cognitivo más feroz en el desarrollo de IA generativa.

 
🚨 NUEVO INFORME: El Comité Selecto sobre China expone DeepSeek, herramienta de inteligencia artificial vinculada a la República Popular China que recopila datos confidenciales de Estados Unidos y explota tecnología estadounidense.

Este es un llamado de atención para que se implementen controles de exportación más estrictos y se tomen medidas urgentes para proteger la seguridad nacional.

————-
Según un informe de Comisión Especial sobre el Partido Comunista Chino de Estados Unidos, DeepSeek altera u omite respuestas sobre temas sensibles como Taiwan en 85% de los casos para alinearse con la censura del Partido Comunista Chino y envía en secreto los datos de los usuarios de vuelta a China. Las democracias deben proteger los espacios digitales del control autoritario.
Taiwán es un Estado autónomo desde 1949, cuando el Kuomintang, partido gobernante de la República de China, fue derrotado por el Partido Comunista Chino en la Guerra Civil China y estableció un gobierno en el exilio al otro lado del Estrecho de Taiwán. El Gobierno de China continental insiste en que Taiwán forma parte de China. En los últimos años, China ha intentado forzar a Taiwán para que se unifique mediante medios diplomáticos, económicos y militares, así como mediante la guerra cognitiva, incluida la manipulación selectiva de la información, la propaganda y las operaciones psicológicas.

La propaganda política china está impulsada por las nuevas tecnologías, y se está globalizando. Un informe reciente de OpenAI sobre el uso malicioso de sus modelos también reveló que algunos actores chinos han usado su producto para supervisar los comentarios contra China en las redes sociales, publicar comentarios contra estadounidenses en español dirigidos a los usuarios de las redes sociales de América Latina y generar comentarios críticos a los disidentes chinos, incluida Cai Xia.

A medida que los modelos de IA de DeepSeek ganan terreno a nivel internacional, al atraer usuarios con su fuerte rendimiento técnico a bajo costo, la pregunta sigue siendo cómo sus filtros políticos integrados afectarán a las audiencias globales. La mayor preocupación es qué significa cuando millones de usuarios en línea comienzan a depender de sistemas de IA diseñados deliberadamente para reflejar y reforzar las perspectivas del gobierno chino.

Todos estos desarrollos indican cómo la IA generativa puede usarse como un arma para controlar a los disidentes, manipular las narrativas y reforzar la conformidad ideológica de los Estados autoritarios, mientras que la gobernanza de la IA basada en los derechos humanos se está quedando a la zaga.
 
Este articulo es de GV Advox, un proyecto de Global Voices con su propio sitio web, en pro de la defensa de la libertad de expresion y contra la censura en internet. ·

Lo más visto