ЕС vs Anthropic: Брюссель требует доступ к Mythos под AI Act
Управление по ИИ ЕС усилило давление на Anthropic из-за модели Mythos с хакерскими способностями. Что ждать с августа 2026, когда вступят полномочия Управления, и что значит для глобальной AI-индустрии.
Власти Евросоюза 6 мая 2026 опубликовали официальное обращение к Anthropic, требуя предоставить доступ к новой модели Mythos. Причина — модель обладает «продвинутыми хакерскими способностями», что согласно EU AI Act классифицирует её как систему высокого риска. С августа 2026 у нового Управления по ИИ ЕС появятся полномочия для принудительного аудита подобных моделей. Это первый громкий конфликт между регулятором и крупной AI-компанией. Разбираем, что значит для глобальной индустрии и российского бизнеса.
Контекст: что такое EU AI Act
EU AI Act — Регламент ЕС 2024/1689 «Об искусственном интеллекте». Принят в 2024, вступал в силу поэтапно. Главная классификация:
| Категория | Примеры | Регулирование |
|---|---|---|
| Запрещённый AI | соц-рейтинг, манипуляция | полный запрет |
| Высокий риск | биометрия, медицина, рекрутинг | сертификация |
| Ограниченный риск | чат-боты, deepfakes | прозрачность |
| Минимальный риск | спам-фильтры | без регулирования |
| GPAI / Foundation models | GPT, Claude, Gemini | особые требования |
С августа 2026 — полные полномочия у нового Управления по ИИ ЕС (EU AI Office), который и потребовал доступа к Mythos.
Что произошло
8 мая 2026:
- Anthropic подтвердила перенос публичного релиза Mythos из-за уязвимостей, которые модель обнаруживала.
- Управление по ИИ ЕС квалифицировало это как признание «системного риска».
- Требование: до 1 августа 2026 предоставить регулятору:
- Доступ к весам.
- Полную методологию тестирования.
- Имплементацию kill-switch.
- Регулярные отчёты.
Anthropic пока не ответила публично. По имеющимся данным — компания предлагает компромисс с ограниченным доступом, но не полным.
Подробнее — в статье про Anthropic Mythos.
Что означает для индустрии
1. Прецедент — государство может «открыть» закрытую модель
До этого модели foundation-уровня были «чёрным ящиком». Если ЕС добьётся доступа к весам Mythos, это создаст шаблон для будущих случаев.
2. Усиление протекционизма
Компании из США (OpenAI, Anthropic, Google) могут начать ограничивать доступ к топовым моделям в ЕС. Это уже происходит:
- OpenAI задерживает запуск некоторых функций ChatGPT в ЕС.
- Google не запускал Gemini Live и Search в ЕС несколько месяцев из-за GDPR.
3. Стимул к open-source
Open-source модели (Llama 4, DeepSeek V3.5) становятся более ценными для бизнеса в ЕС. Они не привязаны к политике одного провайдера.
Подробнее — в статье про open-source AI.
4. Регуляторный арбитраж
Бизнес может выбирать юрисдикцию работы:
- ЕС — самое жёсткое регулирование.
- США — более мягкое, но штатами разное.
- Россия — собственная система (42-ФЗ, по аналогии с EU AI Act).
- ОАЭ, Сингапур — «лёгкие» регулирования, привлекают AI-компании.
Российский контекст
Российское регулирование (42-ФЗ) во многом построено по образцу EU AI Act. Ситуация с Mythos может ускорить:
- Подзаконные акты к 42-ФЗ — конкретизация требований к высокорисковым AI.
- Реестр одобренных AI-моделей для критической инфраструктуры.
- Стимулирование собственных моделей (GigaChat, YandexGPT, российский Llama-fork).
ЦБ РФ и Минцифры пока официально не комментировали ситуацию с Mythos.
Подробнее — в статье про регулирование ИИ в России и ЕС.
Что значит для российского бизнеса
Если используете Claude через прокси
- Краткосрочно: продолжайте использовать Sonnet 4.6 / Opus 4.7. Mythos недоступен и не выйдет в ближайшее время.
- Среднесрочно: имейте «план B» — DeepSeek V3.5, Llama 4 — на случай ужесточения экспорта.
Если строите AI-продукт
- Документируйте процесс разработки (red team, evaluation, безопасность).
- Это пригодится при компанийных аудитах ESG, ISO 42001 и потенциально при аудитах российских регуляторов.
Если работаете с европейским рынком
- Изучите EU AI Act в части GPAI и High-Risk.
- Готовьтесь к обязательному прозрачному раскрытию данных.
Прогноз: что будет дальше
До 1 августа 2026:
- Anthropic либо предоставит частичный доступ, либо начнётся юридический процесс.
- Возможен прецедентный спор в Европейском суде.
Август 2026 — конец года:
- Управление по ИИ ЕС начнёт активно использовать полномочия.
- Аналогичные запросы могут пойти OpenAI, Google.
- Возможна корректировка коммерческих условий доступа из ЕС.
2027:
- Стабилизация. Либо AI-провайдеры адаптировались, либо ушли с рынка ЕС.
- Российское регулирование — догонит, как обычно.
Главные риски для российского бизнеса
- Зависимость от закрытых моделей. Если Anthropic / OpenAI ужесточат доступ — нужны альтернативы.
- Регуляторное отставание. Российский AI-сектор может оказаться «между Западом и Китаем» с непонятными правилами.
- Финансовый барьер. Compliance стоит денег — крупным игрокам легче, малым сложнее.
- Экспортный контроль. AI-модели могут попасть под санкционные ограничения с обеих сторон.
FAQ
Заблокирует ли ЕС Anthropic полностью? Маловероятно. Ожидается компромисс или ограниченный доступ.
Касается ли это российских пользователей? Не напрямую. Но если Anthropic ужесточит политику, прокси-доступ из РФ может быть затронут.
Что с другими провайдерами? OpenAI и Google скоро столкнутся с аналогичным давлением. У OpenAI Atlas и Google Gemini 2.5 Pro есть похожие capabilities.
Когда вступят полномочия Управления по ИИ ЕС? С 2 августа 2026 года.
Что делать, если работаю с европейскими клиентами? Готовиться к запросам про AI-compliance в договорах. Документировать использование AI и процессы безопасности.
Можно ли пользоваться запрещёнными в ЕС моделями? Технически да, но юридически рискованно для бизнеса с европейскими клиентами / партнёрами.
Аналогичное может произойти в России? Да, в случае серьёзных инцидентов с AI. По 42-ФЗ ЦБ и регуляторы имеют право требовать аудит.
Что делать прямо сейчас
- Сегодня: проверьте, какие AI-провайдеры используются в вашем бизнесе и есть ли альтернативы.
- Эту неделю: документируйте текущий стек AI-инструментов и его соответствие 42-ФЗ.
- Этот месяц: разработайте «план B» — миграцию на open-source / российские альтернативы при необходимости.
Связанные материалы:
Кейс ЕС vs Anthropic — рубежная история. Это первый раз, когда регулятор пытается «вскрыть» закрытую foundation-модель. Результат повлияет на всю индустрию: будут ли крупные AI-компании прозрачнее, или закроются ещё больше? Российскому бизнесу важно следить за исходом — наше регулирование пойдёт по похожему пути с лагом 6–12 месяцев.
Кирилл Пшинник
Сооснователь и CEO «Зерокодера», эксперт Forbes по EdTech и AI, лектор МФТИ и Иннополиса. Главный редактор GPTmag.
Все материалы автора →
Дискуссия
Что вы думаете?
Поделитесь опытом, расскажите, как у вас решается похожая задача, или задайте вопрос — я лично читаю все комментарии и отвечаю.