GPTmag GPTmag
Тренды

Безопасность корпоративных данных при работе с нейросетями в 2026

Как малому и среднему бизнесу работать с AI без утечек: 152-ФЗ, разделение ПДн, корпоративные тарифы, локальные модели. Чек-лист политик и список российских прокси для GPT/Claude.

Кирилл Пшинник Кирилл Пшинник 9 минут

В 2024 утечка корпоративных данных через ChatGPT случилась с десятками российских компаний — от среднего регионального банка до крупного застройщика. В 2026 риски выросли: AI используется в каждом отделе, и любой сотрудник одним промптом может отправить персональные данные клиентов, исходный код, контракты или внутренние финансовые показатели на сервер за пределами РФ. Этот гид — для предпринимателя, CIO, безопасника: как использовать всю мощь AI и при этом не получить штраф 18 млн ₽ по 152-ФЗ и не потерять конкурентные данные.

Главные риски в 2026

1. Утечка ПДн в зарубежные LLM

Сотрудник вставляет в ChatGPT/Claude/Gemini базу клиентов или текст договора с именами и контактами — и эти данные оказываются на серверах OpenAI/Anthropic/Google в США. По 152-ФЗ это трансграничная передача ПДн без согласия. Штрафы для юрлиц: от 1 до 18 млн ₽ за нарушение, а с октября 2025 — оборотные штрафы до 3% выручки за повторное.

2. Утечка коммерческой тайны

Финансовые показатели, исходный код, переговоры с партнёрами, стратегические планы — всё, что попадает в промпт, потенциально доступно провайдеру AI и может использоваться для тренировки моделей (на бесплатных тарифах). В корпоративном тарифе обычно прописан no-train, но не всегда.

3. Prompt injection и социальная инженерия

Злоумышленник через сайт/email/документ внедряет промпт, который читает ваш AI-ассистент и заставляет его раскрыть данные или выполнить действие. С 2025 это реальная атака, известны случаи компрометации внутренних AI-агентов.

4. Галлюцинации и принятие решений

AI «уверенно» выдаёт ложные факты. Сотрудник, не проверив, использует это в коммерческом предложении, юридическом документе, отчёте регулятору. Последствия — от репутационных потерь до судебных исков.

5. Shadow AI

Сотрудники без согласования IT регистрируются в десятках AI-сервисов с корпоративной почтой и заливают туда данные. К концу 2025 это стало главной проблемой 60% средних компаний.

Что регулирует 152-ФЗ

Что нельзя без согласия:

  • Передавать ПДн (ФИО, паспорт, телефон, email, адрес, фото) в зарубежные системы без явного согласия владельца ПДн.
  • Хранить ПДн на серверах за пределами РФ (требуется регистрация trans-border data transfer в Роскомнадзоре).

Что считается ПДн:

  • Любая информация, по которой можно идентифицировать конкретного человека.
  • Имена клиентов, телефоны, email, ИНН ФЛ, адреса, медданные, финансовые данные.

Что НЕ ПДн:

  • Обезличенные данные (когда привязка к конкретному человеку технически невозможна).
  • Корпоративные данные юрлиц (название компании, ИНН ЮЛ, юридический адрес).
  • Открытые данные из публичных источников.

Подробнее — в статье про регулирование ИИ в России и ЕС.

Политика AI в компании: что должно быть прописано

1. Что разрешено

  • Какие AI-инструменты одобрены (white list).
  • Какие задачи можно отдавать AI.
  • Какие данные можно передавать (открытые, обезличенные, юрлиц).

2. Что запрещено

  • ПДн физлиц без обезличивания.
  • Финансовые данные (бюджеты, P&L, контракты).
  • Исходный код продакшн-системы.
  • Внутренние стратегические документы.
  • Биометрия (голос, лица, отпечатки).

3. Как обезличивать

  • Имена → плейсхолдеры (Клиент_001).
  • Телефоны → ХХХХ.
  • Адреса → город или регион.
  • Суммы — округлять или относительные значения.

4. Аудит

  • Раз в квартал — обзор использования AI в компании.
  • Логи запросов через корпоративный шлюз.
  • Подписки на AI — централизованные, не личные.

5. Обучение

  • Все сотрудники проходят 2-часовой курс «Безопасное использование AI».
  • Тест с проходным баллом.
  • Повторное обучение раз в год.

Уровни защиты по размеру бизнеса

Самозанятый / микробизнес (1–10 человек)

Минимум:

  • ChatGPT / Claude через корпоративный аккаунт (один на компанию).
  • Запрет передачи ПДн клиентов.
  • Для текстов с ПДн — только GigaChat / YandexGPT.

Бюджет: 5 000 ₽/мес.

Малый бизнес (10–100 человек)

Стандарт:

  • ChatGPT Team или Claude Team — корпоративные тарифы с no-train.
  • Корпоративный SSO (вход через рабочую почту).
  • Политика AI и обучение сотрудников.
  • Прокси через Mindbox / SaluteSpeech / RU-провайдеров для интеграций.

Бюджет: 30 000–80 000 ₽/мес.

Средний бизнес (100–1000 человек)

Расширенный:

  • ChatGPT Enterprise или Claude Enterprise + SSO + audit logs.
  • Корпоративный AI-шлюз (LiteLLM, корпоративный прокси).
  • DLP (Data Loss Prevention) на уровне браузера / endpoint.
  • Внутренний RAG на изолированной инфраструктуре.

Бюджет: 200 000–500 000 ₽/мес.

Крупный бизнес / госсектор

Максимум:

  • Только российские LLM (GigaChat, YandexGPT) или локальные open-source (Llama 3.3, DeepSeek, Mistral, Yi).
  • Изолированная инфраструктура, on-premise или РФ-облако.
  • Дополнительные слои безопасности: red team, регулярный аудит, SIEM-интеграция.

Бюджет: от 2 млн ₽/мес.

Архитектура корпоративного AI-шлюза

В средней и крупной компании в 2026 — это must. Что делает шлюз:

  1. Единая точка входа для всех сотрудников. Они не идут напрямую в OpenAI/Anthropic, а через ваш сервер.
  2. Логирование всех промптов и ответов.
  3. DLP-фильтрация — детектит ПДн в промпте и блокирует / маскирует.
  4. Routing — простые задачи отправляет в дешёвую модель, сложные — в дорогую.
  5. Кэширование — повторяющиеся промпты не оплачиваются дважды.

Готовые решения:

  • LiteLLM (open-source) — устанавливается за день.
  • Portkey — SaaS, $30/мес.
  • Helicone — open-source + SaaS.
  • Кастом на FastAPI — для сложных требований.

Российские прокси для GPT и Claude

Главная проблема для РФ-бизнеса: оплата + соответствие 152-ФЗ. На рынке в 2026 есть несколько вариантов:

ПровайдерЧто даётЦена
VseGPTOpenAI / Anthropic API через РФ-юрисдикциюот 1 ₽/1k токенов
Bothubагрегатор GPT + Claude + Gemini, оплата по СБПот 990 ₽/мес
AI Tunnelпрокси с аналитикой и SSOот 5 000 ₽/мес
GPTunneLдля разработчиков, API совместимый с OpenAIот 2 ₽/1k токенов
Mindbox AIвнутри платформы маркетинга, ПДн остаются в РФв составе подписки

Внимание: прокси решает оплату и часто — частично compliance. Но юридически передача ПДн через прокси в США — всё равно трансграничная. Безопасный путь: либо обезличивание, либо российские модели.

Локальные open-source модели в 2026

Если задачи позволяют, локальная LLM — самый безопасный вариант. Все данные остаются в вашем периметре.

Модели уровня GPT-4o/Claude Sonnet:

  • Llama 3.3 70B — Meta, открытая лицензия. Запускается на 2× A100 80GB.
  • DeepSeek V3 — китайская, очень сильная по соотношению цена/качество.
  • Mistral Large 2 — европейская, хороший русский язык.
  • Qwen 2.5 72B — китайская от Alibaba, лучшее знание азиатских языков.

Стоимость инфраструктуры:

  • На сервере с 2× H100 (~5 млн ₽) запускается Llama 3.3 на 30–50 одновременных пользователей.
  • В РФ-облаке (Selectel, Yandex Cloud) — от 100 000 ₽/мес за GPU-инстанс.

Подробнее — в статье про DeepSeek, Mistral и Llama.

Кейсы утечек, на которых стоит учиться

Samsung 2023

Инженеры вставили в ChatGPT исходный код полупроводника для отладки. Код стал частью обучающих данных модели. Samsung запретила использование ChatGPT.

Урок: даже на платных тарифах нет 100% гарантии, что ваш код не попадёт куда-то.

JPMorgan, Bank of America, Wells Fargo

В 2023–2024 банки массово блокировали ChatGPT внутри корпоративной сети. Причина — передача клиентских данных и финансовых.

Урок: для банков и финансовых компаний — только локальные или контракт-уровень с провайдером.

Amazon

Внутренний meme: «не вставляйте в ChatGPT ничего, что не хотите видеть в Amazon Q1 earnings». Юридическая команда выпустила полный запрет на работу с ChatGPT в 2023.

Российские кейсы 2024–2025

Известны (по утечкам в Telegram-каналах безопасников): крупный ритейлер, у которого менеджер вставил в Claude базу VIP-клиентов; региональный банк, в котором юрист сливал тексты договоров; страховая, где сотрудник прогонял медицинские справки клиентов.

Штрафы — порядка 5–15 млн ₽ каждой из компаний по результатам проверок Роскомнадзора в 2025.

Чек-лист политик AI: 20 пунктов

  • Назначен ответственный (CISO / DPO / руководитель IT).
  • Утверждён white list AI-сервисов.
  • Запрещены неодобренные AI (черный список).
  • Корпоративный аккаунт ChatGPT Team / Claude Team / Gemini Workspace.
  • SSO для всех сотрудников.
  • Корпоративный AI-шлюз (LiteLLM/Portkey/кастом).
  • DLP с детекцией ПДн в промптах.
  • Логирование запросов с retention 1+ год.
  • Политика AI документирована и подписана сотрудниками.
  • Обучение по безопасности AI — обязательное при найме.
  • Тест на знание политики раз в год.
  • Список запрещённых типов данных в промптах.
  • Процесс обезличивания ПДн до использования AI.
  • Запрет личных подписок на AI с корпоративной почтой.
  • Аудит использования AI раз в квартал.
  • Процедура реагирования на инцидент утечки.
  • Регистрация в Роскомнадзоре трансграничной передачи (если применимо).
  • Отдельная политика для AI-агентов и автоматических интеграций.
  • Регулярное обновление списка одобренных моделей.
  • План B на случай блокировки внешних AI (российские альтернативы).

Что делать при инциденте утечки

  1. Изолируйте источник. Заблокируйте аккаунт сотрудника, отозвите токены API.
  2. Соберите факты. Что попало в промпт, в какую модель, на каком тарифе.
  3. Свяжитесь с провайдером. OpenAI, Anthropic, Google имеют процедуры удаления данных по запросу.
  4. Уведомите Роскомнадзор. В течение 24 часов с момента обнаружения по 152-ФЗ.
  5. Уведомите субъектов ПДн (если их данные попали в утечку) в течение 72 часов.
  6. Проведите внутреннее расследование. Что не сработало в политике / инструментах.
  7. Корректируйте процесс. Обычно — ужесточение DLP и обучения.

Главные ошибки

  1. «У нас маленькая компания, штрафы нас не коснутся». Касаются. Роскомнадзор начал проверки малого бизнеса в 2025.
  2. Использование личных аккаунтов. Бесплатный тариф = ваши данные могут уйти на тренировку.
  3. «У нас нет ПДн». Есть. Любое имя / email / телефон сотрудника, клиента, партнёра — это ПДн.
  4. Игнорирование Shadow AI. Если IT не знает, какие AI используют сотрудники — это уже инцидент.
  5. Доверие промпту по умолчанию. Без DLP-проверки сотрудники не задумываются. С DLP — задумываются (потому что бекенд блокирует).
  6. Без процедуры инцидента. Когда «случилось» — паника. Должна быть playbook, проверенная на тренировке.

FAQ

Можно ли использовать ChatGPT в коммерческой деятельности в РФ? Да, если не передавать ПДн физлиц без согласия и оплачивать через легальный путь (прокси / зарубежная карта).

Что грозит за утечку через ChatGPT? По 152-ФЗ для юрлиц: 1–18 млн ₽ за нарушение + оборотные штрафы при повторе. Плюс репутация и иски пострадавших.

Безопаснее ли ChatGPT Enterprise / Claude Enterprise? Да. В контрактах прописан no-train на ваших данных, audit logs, SLA. Но трансграничная передача всё равно — серверы в США.

Могу ли я обезличить данные программно? Да. Регулярки + специальные библиотеки (Presidio от Microsoft, NER-модели). Но 100% автоматическое обезличивание сложно — лучше ручной контроль критических документов.

Что про оплату ChatGPT через российские карты? Напрямую — нельзя. Через Bothub / VseGPT / прокси — можно. Юридически это покупка услуги через российского посредника.

Локальные модели — это сложно? Не очень в 2026. Llama 3.3 70B запускается через ollama / vLLM. Команда из 1 senior DevOps настроит за неделю.

Можно ли использовать GigaChat вместо ChatGPT для всего? Можно, но качество на сложных задачах ниже. Стратегия — гибрид: GigaChat для всего, что касается ПДн / российской специфики; ChatGPT для всего обезличенного и общего.

Что делать прямо сейчас

  1. Сегодня: проведите аудит — какие AI-сервисы используют ваши сотрудники прямо сейчас (опрос + IT-логи).
  2. Эту неделю: оформите политику AI на 1 страницу, разошлите сотрудникам, добавьте в onboarding.
  3. Этот месяц: подключите корпоративный ChatGPT Team / Claude Team или внедрите AI-шлюз.

Связанные материалы:

В 2026 безопасность AI — это не «опция для параноиков», а минимальная гигиена бизнеса. Каждый промпт — это потенциальная утечка. Каждый сотрудник без обучения — потенциальный инцидент. Стоимость защиты — 5–10% бюджета AI. Стоимость одного инцидента — десятки миллионов и потерянная репутация.

Кирилл Пшинник

Кирилл Пшинник

Сооснователь и CEO «Зерокодера», эксперт Forbes по EdTech и AI, лектор МФТИ и Иннополиса. Главный редактор GPTmag.

Все материалы автора →

Похожие статьи

Дискуссия

Что вы думаете?

Поделитесь опытом, расскажите, как у вас решается похожая задача, или задайте вопрос — я лично читаю все комментарии и отвечаю.