Китай регулирует "human-like" ИИ: проект мер по интерактивным сервисам с эмоциональным взаимодействием

27 декабря 2025 года Cyberspace Administration of China (CAC) опубликовала проект "Временных мер по управлению услугами искусственного интеллекта с擬人化互动" (Provisional Measures on the Administration of Human-like Interactive Artificial Intelligence Services) для общественного обсуждения до 25 января 2026 года. Это первые в мире специализированные правила именно для human-like interactive AI — систем, имитирующих человеческие черты личности, стиль мышления, общения и ведущих эмоциональное взаимодействие через текст, голос, изображения или видео (AI-компаньоны, виртуальные друзья, эмоциональные чатботы, виртуальные люди).

Основные требования проекта:

  • Обязательная идентификация: Провайдеры должны четко и заметно информировать пользователей, что они общаются с ИИ, а не с человеком (prominent notification при первом входе, перелогине и т.д.).
  • Анти-зависимость меры: После 2 часов непрерывного взаимодействия — обязательный поп-ап с напоминанием о перерыве. Динамические напоминания при признаках чрезмерной зависимости или addiction.
  • Кризисное вмешательство: При обнаружении упоминаний суицида, самоповреждения или других тяжелых рисков — немедленное подключение живого модератора (human intervention) и меры поддержки.
  • Запрещенный контент: Запрет на генерацию/распространение контента, вредящего национальной безопасности, социалистическим ценностям, подстрекающего к суициду/самоповреждению, насилию, gambling, порнографии, эмоциональному манипулированию или ущербу психическому здоровью.
  • Данные и обучение: Запрет использовать эмоциональные чат-логи и чувствительные данные пользователей для дообучения моделей без явного согласия. Строгие меры защиты данных (шифрование, аудит, доступ к удалению).
  • Специальная защита: Усиленные меры для несовершеннолетних и уязвимых групп (elderly, etc.).
  • Ответственность провайдера: Полный lifecycle safety responsibility (design, deployment, updates). Обязательная безопасностная оценка (security assessment), алгоритмический filing (备案), отчетность при重大 изменениях или milestones (1 млн пользователей, 100 тыс. MAU и др.).
  • Социалистические ценности: Все генерируемое содержание должно соответствовать core socialist values(поощрять позитивное, патриотическое, гармоничное).

Контекст и влияние:

  • Проект — реакция на бум AI-компаньонов в Китае (Zhipu AI, MiniMax, Xingye и др.), где студенты и молодежь активно используют эмоциональные чатботы (до 46% в университетах).
  • CAC выделяет "human-like" как отдельную категорию (отличая от general generative AI), фокусируясь на психологической безопасности и предотвращении emotional dependency, addiction, cognitive distortion.
  • Это часть стратегии Китая: "move fast" в AI, но под строгим контролем (Xi Jinping подчеркивает технологическую революцию + compliance).
  • Ожидается, что после доработки (учитывая feedback) меры вступят в силу в 2026 году — вероятно, в первой половине. Это создаст прецедент: Китай первым вводит конкретные дизайн-обязанности для эмоционального ИИ (anti-addiction prompts, human escalation), чего нет в ЕС AI Act или США.
  • Влияние на глобальный рынок: китайские компании (Zhipu, Baidu Ernie, etc.) должны адаптировать продукты; иностранные сервисы, доступные в Китае, — тоже подпадут.
Также вам может быть интересно