Кейс: как мы автоматизировали обработку лидов на OpenAI API и сократили время ответа в 8 раз
Подробный кейс автоматизации воронки лидов: архитектура, промпты, метрики «до и после», стоимость и неочевидные грабли. Снизили время первого ответа с 4 часов до 30 минут.
Делимся реальным кейсом из нашей практики: как небольшая B2B-команда из 12 человек выстроила автоматическую первичную обработку лидов и в 8 раз сократила время ответа клиенту. Цифры, архитектура, конкретные промпты, ошибки и выводы.
Исходные условия
- 60–120 входящих лидов в неделю с лендинга и форм партнёров
- Менеджеры обрабатывали вручную: уточняли потребность, классифицировали, заводили в CRM
- Среднее время первого ответа — 4 часа в рабочее время, до суток в выходные
- Конверсия в квалифицированный лид — 38%
Что хотели
Снизить время первого ответа до 30 минут и автоматически фильтровать «мусорные» заявки, чтобы менеджеры тратили время только на тёплых.
Архитектура
Форма → вебхук → очередь (BullMQ) → воркер → OpenAI API → CRM/Telegram
В цепочку добавили вызов GPT-4.1 на двух этапах:
- Классификация: определить категорию лида (B2B/B2C, размер компании, готовность к покупке).
- Персонализированный ответ: сгенерировать первое письмо с учётом классификации и истории клиента.
Промпт классификатора (упрощённо)
Ты — аналитик отдела продаж B2B-компании.
На вход — заполненная форма заявки.
Задача — выдать JSON с полями:
segment: "smb" | "enterprise" | "private"
intent: "explore" | "compare" | "buy" | "spam"
priority: 1..5
rationale: краткое обоснование
Если данных недостаточно — выставляй intent: "explore", priority: 3.
Никогда не выдумывай информацию.
Если интересно, как построить хорошие промпты — у нас есть отдельный материал с 12 сценариями использования ChatGPT в малом бизнесе, там много шаблонов.
Что сработало
- Жёсткий JSON-формат на выходе. Никаких свободных рассуждений — ловятся валидатором, прерывают конвейер при ошибке.
- Дедупликация на уровне очереди: один и тот же email/телефон не обрабатывается дважды за час.
- Фоллбек: если API отвечает дольше 6 секунд — лид уходит в «ручную» с пометкой «AI: timeout».
Что не сработало с первого раза
- Слишком общий промпт: модель путала «explore» и «compare». Помогли few-shot примеры в системном сообщении.
- Длинный контекст: пытались скармливать всю историю клиента. Стоимость росла, качество — нет. Урезали до 3 последних взаимодействий.
- Слепое доверие к классификации: первый месяц считали, что приоритет 5 = горячий лид. На деле — 30% таких оказывались автоматическим спамом из агрегаторов. Добавили эвристический фильтр поверх.
Цифры до/после (3 месяца)
| Метрика | До | После |
|---|---|---|
| Время первого ответа | 4 ч | 30 мин |
| Конверсия в квалифицированный лид | 38% | 47% |
| Стоимость обработки одного лида | ~12 ₽ | ~3 ₽ + 1.4 ₽ API |
| Часов менеджеров на рутине / нед | 18 | 4 |
Стоимость и окупаемость
Расходы на API — около 3 200 ₽ в месяц при 400 заявках. Высвобождение 14 часов работы менеджеров с ставкой 600 ₽/час — это 8 400 ₽ в месяц. Чистая экономия — около 5 200 ₽/мес плюс быстрее реакция → выше конверсия.
Что важно для предпринимателя
Не пытайтесь автоматизировать всю воронку сразу. Начните с одного узкого этапа, где у вас есть чёткая метрика. Чтобы изучить сами инструменты — посмотрите подборку топ-5 нейросетей для контента и текстов — многие из них имеют API и подходят для подобных задач.
Технические гайдлайны
- Всегда логируйте полный prompt + completion в отдельную таблицу. Это спасёт при аудите и поможет улучшать промпты.
- Тестируйте на изолированной выборке перед прод-релизом. Минимум — 50 ручных лидов, классифицированных вашими менеджерами.
- Заложите бюджет на дрейф модели: каждые 3 месяца переоценивайте качество.
Михаил Соколов
AI-инженер. Разрабатывает агентные сценарии и автоматизации на стеке OpenAI / Anthropic / YandexGPT. Делится продакшен-практикой.
Дискуссия
Что вы думаете?
Поделитесь опытом, расскажите, как у вас решается похожая задача, или задайте вопрос — я лично читаю все комментарии и отвечаю.