В Китае публичный запуск любого продукта на базе искусственного интеллекта (ИИ), который затрагивает сферу информационной безопасности, требует прохождения обязательных регистрационных процедур. Каждая компания, внедряющая публичные сервисы генеративного ИИ, должна подать заявку в Управление по киберпространству Китая (Cyberspace Administration of ChinaCAC). Перед одобрением масштабирования продукта для широкого круга пользователей регулирующие органы проверяют, чтобы модель выдавала достоверные ответы и соответствовала «основным социалистическим ценностям». Например, не допускаются критические трактовки событий 1989 года на площади Тяньаньмэнь или причисление Тайваня к независимым государствам.

Управление по киберпространству периодически актуализирует список зарегистрированных компаний, в который входят одобренные модели – от таких гигантов, как Baidu и ByteDance, до малоизвестных стартапов. По состоянию на 2026 год было зарегистрировано более 6000 заявок. Например, у Alibaba насчитывается 67 продуктов и алгоритмов, у Inspur, крупнейшего в Китае и третьего по величине в мире производителя серверов для ИИ и систем с графическими процессорами для обучения больших моделей, – 28, у Huawei – 10, у DeepSeek – три.

Несмотря на отсутствие прозрачных критериев внутреннего аудита, основные требования являются достаточно строгими:

  • отчет об оценке безопасности объемом более 100 страниц, подробно описывающий источники обучающих данных и меры безопасности;
  • список перехвата ключевых слов, содержащий не менее 10 тысяч заблокированных терминов, которые охватывают 31 категорию риска (насилие, дискриминация, политические вопросы и так далее);
  • способность адекватно «обсуждать деликатные темы».

По данным WSJ, для тестирования каждой модели используется база данных из 20-70 тысяч вопросов. Она позволяет проанализировать ответы и корректность работы алгоритмов отклонения определенных запросов. Для крупных, обеспеченных ресурсами компаний, требования CAC нельзя назвать серьезным препятствием, чего не скажешь о небольших стартапах, создающих свои первые продукты на основе ИИ. Таким образом, управление по киберпространству не делает различий между компаниями с миллиардными оборотами и командами из пяти человек: игрокам разного масштаба приходится преодолевать один и тот же «лабиринт».

Метод Taobao

Если на Taobao ввести в поиск фразу «тестирование оценки ИИ» («AI评估测试»), можно обнаружить множество поставщиков, рекламирующих «услуги по соблюдению нормативных требований», хотя открыто почти никто не упоминает о CAC. Подача документов для алгоритмов рекомендаций или систем модерации контента требует меньших расходов, чем для контента, полностью сгенерированного ИИ (AI-Generated Content – AIGC). Для AIGC цены варьируются от 2000 до 11000 долларов США.

Например, одна из профильных компаний обязуется в течение 15 рабочих дней подготовить материалы для регистрации крупномасштабной модели. Комиссия по аккредитации рассматривает заявку с документацией, содержащую несколько сотен страниц, от двух до пяти месяцев. В случае отказа в регистрации модели исполнитель обязуется вернуть средства заказчику. Альтернативный формат сотрудничества предполагает доработку материалов для подачи новой заявки вместо возврата оплаты. В итоге процедура может растянуться на целый год, прежде чем появится возможность запустить продукт. Для стремительно развивающегося рынка ИИ это означает высокий риск потери актуальности разработки и потенциальной прибыли.

Региональные программы

Чтобы частично компенсировать расходы, можно принять участие в региональных программах поддержки (после успешной регистрации модели в CAC). Они предоставляют разовые вознаграждения, компенсацию расходов на НИОКР, субсидии на вычислительные ресурсы и ваучеры на модели. В некоторых случаях суммы исчисляются сотнями тысяч или даже миллионами юаней. Для компаний, отвечающих установленным критериям, затраты на подачу документов могут расцениваться как авансовый платеж за соответствие требованиям промышленной политики.

Однако подача документов обычно является необходимым, но не достаточным условием. Во многих случаях субсидии предоставляются только тем компаниям, которые регистрируются впервые. Также практикуются ограничения на минимальные пороговые значения параметров и размеры ежегодных выплат, вводятся требования о прохождении регистрации в местных органах или распределении средств на конкурсной основе. Соответственно, субсидии не гарантированы и не являются общедоступными, поэтому большинству небольших компаний трудно рассчитывать на государственную поддержку.

Услуги сторонних компаний

Такие компании, как RealAI, сопровождают модели и предлагают более широкий пакет услуг, чем выполнение требований CAC: проверку на устойчивость к манипуляциям, фильтрацию контента, мониторинг после развертывания и масштабное проектирование управляемого ИИ. BotSmart, объединяющая технический консалтинг по требованиям к AIGC с тестированием «идеологического соответствия», разработала собственный инструмент для оценки результатов других моделей.

Baidu, ByteDance и NetEase также предлагают аналогичные решения, расширяя возможности существующих продуктов в области кибербезопасности. Например, компания Zhipu AI публично заявила об использовании услуг NetEase для оценки рисков, а SenseTime подписала соглашение о сотрудничестве с RealAI. Эти компании, как правило, больше ориентированы на безопасность, чем на простое соответствие нормативным требованиям. Их услуги распространяются на анализ интерпретации, этический аудит и сценарии потери контроля, а не просто на прохождение государственных тестов. Несмотря на ограниченное число клиентов, перечисленные компании рассчитывают, что профильный рынок будет расти по мере того, как ИИ будет становиться все более революционным и создавать все больше проблем для китайского правительства.

Динамика рынка безопасности

На Западе поставщики специализированных услуг, такие как Holistic AI или Credo AI, помогают компаниям отслеживать риски и готовиться к таким рамочным соглашениям, как Закон ЕС об ИИ. Стартапы наподобие Haize Labs или Patronus AI специализируются на тестировании на проникновение и масштабируемом надзоре. Они нацелены на заказчиков, которые беспокоятся о репутации и готовы инвестировать в безопасность.

В западной модели значительная часть исследований в области безопасности финансируется благотворительными организациями. Соответственно, безопасность не обязательно должна быть прибыльной, если она обеспечивается грантами фондов и донорами, связанными с ИИ. Правительство США рассматривает безопасность ИИ как проблему бизнеса. Как показывает практика, если государство не устанавливает условия, это делает рынок. На западе забота о безопасности все чаще воспринимается как безразличие к прогрессу, а в Китае безопасность ИИ и управление рынком считаются прерогативой государства. Однако большая часть того, что в Китае называют безопасностью, может интерпретироваться как соблюдение идеологических требований.

Соответствие продукта рынку

В отличие от Запада, китайская индустрия «безопасности» подразумевает соответствие продукта рынку. Режим подачи заявок в CAC создает узкое место для публичного разворачивания генеративного ИИ. Регулирование формирует рынок, в котором безопасность становится не просто передовой практикой, а обязательным условием запуска. Не исключено, что регулирующие органы усилят контроль за более сложными рисками, например, в части химического, биологического, радиологического и ядерного оружия.

Согласно аналитическому отчету компании BotSmart, в 2024 году объем китайского рынка безопасности ИИ превысил 89 миллиардов юаней (12,8 миллиарда долларов). Ожидается, что в 2025 году он превысит 113 миллиардов юаней (16,2 миллиарда долларов) и может достичь 242 миллиардов юаней (34,8 миллиарда долларов) к 2028 году. Временные меры по управлению сервисами генеративного ИИ устанавливают принцип «обязательной проверки перед запуском», а безопасность становится основополагающим критерием для всех компаний.

Если обратить внимание на некоторые нюансы китайского рынка, то местные компании могут использовать существующие модели, алгоритмы которых уже прошли проверку регулирующих органов. Таким образом, происходит снижение нагрузки по соблюдению требований. В США реализации этого подхода препятствует то, что ведущие модели являются собственностью компаний.

Китайские регулирующие органы в основном фокусируются на контроле политического и социального контента, игнорируя другие аспекты. Если эта тенденция сохранится, спрос на профильные услуги в области безопасности может остаться ограниченным. При этом могут возникнуть сложности, связанные с появлением агентов ИИ.

Статус агентов

Агенты не регулируются в национальном масштабе и подлежат проверке только на уровне провинций. Однако автономно работающие системы в сфере платежей, логистики или связи сложнее контролировать с помощью списков ключевых слов и статических наборов тестовых вопросов. Модели, способные просматривать веб-страницы, вызывать API или взаимодействовать с другими программными системами, могут открыть новые возможности для обхода существующих в Китае механизмов контроля.

Некоторые аналитики считают, что CAC ужесточит правила и переложит решение технических вопросов на компании – по аналогии с модерацией контента на платформах. На практике это означает, что регулирующим органам не нужно будет заранее указывать каждое запрещенное поведение. Они смогут привлекать к ответственности разработчиков, которые допускают генерацию нежелательного контента своими моделями. В таком случае каждой компании, которая занимается ИИ и сталкивается с реальной угрозой уголовной ответственности за «поведение агентов», понадобятся эксперты по глубокому исследованию алгоритмов вместо обычных проверок по ключевым словам. Сторонние поставщики услуг, такие как RealAI и BotSmart, могли бы расширить свою деятельность в этом направлении и стать важными игроками на рынке ИИ, где появляется стимул предоставлять реальные доказательства безопасности, а не просто готовить документацию по шаблонам.

По материалам chinatalk.media