
Главное
• Оценка LLM — это новый MLOps. Braintrust привлёк 6 млрд ₽ в феврале 2026 при оценке в 60 млрд ₽. LangSmith, Galileo, Confident AI — тоже в борьбе. Продакшен LLM-приложения без оценки тихо ломаются: апгрейд модели незаметно ухудшает качество, правка промпта рушит крайние случаи.
• Проверки «на глаз» проваливаются по трём причинам: ловят не тот тип багов, подстраиваются под вкус команды (а не пользователя), не дают регресс-тестов при смене промпта или модели. Цена — тихая эрозия качества.
• 5 категорий оценки: с эталоном (BLEU, ROUGE), без эталона (перплексия, семантическая близость), на основе модели (LLM-as-judge), человеческая оценка, прикладные бизнес-метрики. Каждая ловит свои классы багов; в зрелых деплоях используют 3 и больше.
• Эталонный датасет (golden dataset) — самый сложный шаг. 100–200 пар «запрос — ответ» по основным сценариям и крайним случаям, размеченных доменными экспертами. Без него вы тюните вслепую. С ним каждое изменение промпта или модели становится тестируемым.
• Качественные гейты в CI/CD сильнее ретроспективных дашбордов. Регресс-тест на каждом деплое; деплой блокируется, когда метрики оценки падают. Braintrust и LangSmith это умеют; собрать с нуля — 2–3 спринта.
Почему этот плейбук написала Фора Софт
Фора Софт с 2024 года довела до продакшена 9+ LLM-приложений. Голосовые агенты на OpenAI Realtime и LiveKit Agents; реализации RAG в BrainCert, VALT и платформах для совещаний; MCP-серверы для видео и систем наблюдения.
В каждом — оценочная обвязка: эталонный датасет, интеграция с RAGAS или Braintrust, качественные гейты в CI/CD. Подходы в этом руководстве собраны из этих проектов и публичных источников: сравнения платформ Braintrust 2026, документации LangSmith, фреймворка RAGAS, статистики McKinsey о 67 % внедрений RAG.
Если вы запустили LLM-приложение в продакшене и не ловите регрессии раньше клиентов, это руководство даст вам каркас, матрицу инструментов и практическую схему — особенно по самой пропускаемой части: построению эталонного датасета.
Нужна оценочная обвязка для вашего LLM-приложения?
Пришлите ваше LLM-приложение и несколько продакшен-трейсов. За неделю мы соберём эталонный датасет на 50 кейсов и проведём базовую оценку. Бесплатно.
Почему проверки «на глаз» проваливаются
Большинство команд «оценивает» LLM-приложение так: показывают пару запросов команде и спрашивают «нормально ли выглядит?». Этого хватает на v0-демо — и больше ни на что. Три типа провала:
1. Искажения выборки (sample bias). Команда пробует те запросы, которые сама придумала, — обычно грамотные, в рамках домена, по счастливому пути. Реальные пользователи присылают странные запросы, с опечатками, на языках, которые команда не закладывала, на крайних случаях, о которых никто не подумал. Длинный хвост проверки «на глаз» не ловят вообще.
2. Эффект привязки (anchor effect). Как только команда довольна v1, каждое следующее изменение оценивается относительно v1. Медленная деградация остаётся незамеченной. Мы видели проекты, где за полгода апгрейдов модели, правок промпта и тюнинга поиска точность на длинном хвосте незаметно падала на 15 %, и никто этого не замечал.
3. Нет регресс-тестов. Команда переходит на GPT-4 Turbo / Claude 3.5; кто-то меняет промпт; кто-то добавляет фильтр в поиск. Без автоматического набора тестов единственный сигнал — жалобы клиентов. А клиенты обычно уходят раньше, чем жалуются.
Лекарство — автоматическая оценка на эталонном датасете с регресс-тестами в CI/CD. Когда это есть, каждое изменение промпта или модели становится тестируемым; падение качества всплывает раньше, чем до него доберутся клиенты.
5 категорий оценки LLM
| Категория | Примеры | Когда применять |
|---|---|---|
| 1. С эталоном | BLEU, ROUGE, METEOR | Перевод, суммаризация при наличии эталонного текста |
| 2. Без эталона | Перплексия, классификаторы токсичности, семантическая близость | Оценка качества без эталонных данных |
| 3. На основе модели | LLM-as-judge (GPT-4 оценивает ответ) | Открытые ответы, качественные критерии |
| 4. Человеческая оценка | Доменные эксперты размечают примеры; A/B-тест | Эталон по качеству; дорого |
| 5. Бизнес-метрики | Конверсия, доля доведённых до конца обращений, NPS | Эталонные данные продакшена; запаздывают |
С эталоном. BLEU и ROUGE сравнивают вывод модели с эталонным текстом. Подходят для перевода и суммаризации, где такой текст есть. Слабо работают на свободной генерации: множество корректных ответов не совпадают с эталоном дословно.
Без эталона. На выводе крутятся классификаторы качества: токсичность, галлюцинации, семантическая близость к контексту. Дешевле, эталон не нужен, удобно для фильтрации плохих ответов в продакшене.
На основе модели (LLM-as-judge). Отдельная LLM (часто GPT-4) оценивает вывод по критериям, которые вы зададите («ответ опирается на факты?», «отвечает ли на вопрос?»). Мощно и дёшево; но есть искажения: LLM любят свои собственные ответы, более длинные ответы, определённые формулировки. Используйте аккуратно — никогда как единственный метод оценки.
Человеческая оценка. Доменные эксперты размечают примеры по интересующим вас параметрам. Эталон качества, но дорого (75–375 ₽ за пример) и медленно. Используется при сборке эталонного датасета и для периодической перекалибровки автоматических метрик.
Бизнес-метрики. Эталонные данные, которые реально важны: удержание пользователей, конверсия, NPS, доля доведённых до конца обращений (для голосовых агентов). Запаздывающий индикатор; полезен, чтобы убедиться, что метрики оценки коррелируют с тем, что вам действительно нужно.
Оценка для RAG (RAGAS)
RAG-приложениям нужны RAG-специфичные метрики. Open-source-фреймворк RAGAS определяет четыре основные:
Релевантность контекста. Действительно ли извлечённые чанки относятся к запросу пользователя? Ловит сбои поиска — правило 73 %: когда RAG ломается, проблема обычно в извлечении, а не в генерации. Целевое значение: >0,8.
Релевантность ответа. Отвечает ли LLM на заданный вопрос (а не уходит в сторону)? Ловит проблемы в поведении модели. Целевое значение: >0,85.
Обоснованность (faithfulness). Подтверждаются ли утверждения в ответе извлечёнными чанками? Ловит галлюцинации. Целевое значение: >0,85.
Полнота контекста (context recall, с эталоном). Если у вас есть размеченный валидационный набор — нашёл ли ретривер чанки, в которых лежит ответ? Самая сложная для подсчёта метрика (нужна разметка эталона), но и самая показательная для качества поиска.
Под капотом RAGAS использует LLM-as-judge. Запускайте на эталонном датасете из 100–200 вопросов, отслеживайте метрики во времени, ставьте алерты на регрессии. Подробнее об архитектуре поиска, которую вы будете оценивать, — в нашем гайде по RAG для видео и аудио.
Оценка голосовых агентов
У голосовых агентов есть параметры оценки, которых нет у текстовых:
Бюджет задержки. Задержка voice-to-voice по p50 (<800 мс) и p95 (<1,4 с). Считается на каждом ходе диалога; алерт на дрейф. Подробности — в нашем руководстве по OpenAI Realtime.
Точность вызова инструментов. Вызвал ли агент правильный инструмент с правильными аргументами? Считается по каждому инструменту. Цель: >96 % успешных вызовов.
Обработка перебивания. Когда пользователь перебивает агента в момент речи — останавливается ли тот в течение 200 мс? Отслеживайте задержку реакции (barge-in latency) и ложные срабатывания.
Доля доведённых до конца обращений (containment rate). Процент звонков, завершённых без передачи оператору. Самая важная бизнес-метрика для голосовых агентов.
Воспроизведение трейсов. Записывайте полное аудио и транскрипт каждого звонка; затем переигрывайте — чтобы пополнять эталонный датасет или прогонять регресс-тесты. Это умеют Helicone, LangSmith и Braintrust.
Матрица инструментов: Braintrust, LangSmith, Galileo, Confident AI, Helicone
| Инструмент | Сильная сторона | Цена | Кому подходит |
|---|---|---|---|
| Braintrust | Оценка + трейсинг + гейты CI/CD в одном; привлёк 6 млрд ₽ в феврале 2026 | 18 600 ₽/мес. фикс (без лимита по пользователям) | Команды с несколькими LLM-фичами; нужна одна платформа |
| LangSmith | Глубокая интеграция с LangChain; зрелый трейсинг | 2 900 ₽/место/мес. (Plus); enterprise по запросу | Стек на базе LangChain |
| Galileo | Мониторинг продакшена + детектор галлюцинаций | Тариф enterprise; usage-based | Корпоративные требования к комплаенсу и наблюдаемости |
| Confident AI / DeepEval | Open-source-фреймворк DeepEval | Бесплатный OSS + платный хостинг | Self-hosted, code-first-оценка |
| Helicone | Трейсинг + учёт затрат + кэширование | Per-request; есть OSS-вариант | Команды, считающие расходы; observability-first |
| Langfuse | Open-source-трейсинг и оценка; есть self-hosted | Бесплатный OSS + платный cloud | Требования по комплаенсу и хранению данных |
| RAGAS | Open-source-фреймворк под RAG | Бесплатно | Оценка RAG в любом стеке |
Берите Braintrust, если: у вас несколько LLM-фич, нужны оценка, трейсинг и CI/CD на одной платформе, фикс-цена на много пользователей.
Берите LangSmith, если: ваш стек — LangChain или LangGraph; нужен нативный трейсинг под этот фреймворк.
Берите Langfuse / Confident AI, если: комплаенс требует self-hosted; данные оценки нужно держать внутри VPC.
Берите RAGAS + платформу, если: приоритет — RAG-специфичная оценка; комбинируйте метрики RAGAS с Braintrust или LangSmith для полного пайплайна.
Регресс-тесты в CI/CD
Схема такая: каждый PR, который трогает промпты, логику поиска или выбор модели, прогоняет набор тестов на эталонном датасете. PR блокируется, если метрики оценки регрессируют сверх порога.
На что ставить гейт. Ключевые метрики: faithfulness и answer relevance из RAGAS, ваши доменные метрики. Задайте пороги по качеству (например, faithfulness не ниже 0,85). Задайте пороги по регрессии (ни одна метрика не падает больше чем на 3 % относительно main).
Пайплайн. PR открыт → CI запускает оценку (5–15 минут на датасете в 100 вопросов) → результаты публикуются комментарием в PR и статус-чеком → PR можно мерджить только если пороги по качеству пройдены.
Контроль расходов. Прогоны оценки тратят токены LLM. Один прогон RAGAS на 100 вопросах стоит примерно 37–150 ₽. Способы экономить: (1) кэшируйте одинаковые промпты и ответы между прогонами, (2) полный набор — на release-ветках, сокращённый — на feature-ветках, (3) тяжёлые неблокирующие метрики прогоняйте пакетно по ночам.
Воспроизведение продакшен-трейсов. Снимайте трейсы в продакшене; 5–10 % попадают в «свежий продакшен»-набор для оценки. Прогоняйте по ночам. Дрейф ловится быстрее, чем на одном статичном эталонном датасете.
Как собрать эталонный датасет
Самая сложная часть оценки. Сделаете хорошо — это станет вашим самым ценным LLM-инженерным активом. Сделаете плохо — все метрики оценки бессмысленны.
Шаг 1: опишите сценарии. Перечислите 5–10 основных вариантов использования вашего LLM-приложения. По каждому — 3–5 типичных запросов. Получите ~30–50 запросов на счастливый путь.
Шаг 2: соберите крайние случаи. Прошерстите продакшен-логи (или сессии бета-тестеров) на предмет запросов, которые удивили команду. Опечатки, многоязычные, длинные, короткие, нестандартные интерпретации. Цель — 30–50 крайних случаев.
Шаг 3: разметка доменными экспертами. На каждый запрос доменный эксперт (не инженер, который пишет приложение) пишет «правильный» ответ или размечает допустимые варианты. Стоит 75–375 ₽ за запрос для общей тематики; 375–1 500 ₽ для медицины, права и других специализированных доменов.
Шаг 4: ревью и доработка. Команда инженерии смотрит разметку на согласованность. Расхождения вскрывают двусмысленности в описании сценариев. Итерируйте.
Шаг 5: поддерживайте во времени. Раз в квартал добавляйте новые запросы из продакшен-трейсов. Удаляйте те, что больше не отражают поведение продукта. Раз в год переразмечайте, если продукт или домен заметно изменился.
Сколько стоит оценка
Стоимость запуска. Сборка эталонного датасета: 22 500–150 000 ₽ за 100–200 вопросов в стандартном домене. Специализированные домены — в 3–5 раз дороже. Интеграция инструментов (Braintrust / LangSmith / RAGAS): 1–2 недели работы инженера.
Стоимость прогонов. Один прогон: 37–150 ₽ на 100 вопросов с судьёй уровня GPT-4. Ежедневные прогоны: 2 250–4 500 ₽/мес. CI/CD-прогоны на каждый PR: 37 ₽ × число PR. Типично — 3 750–15 000 ₽/мес. при активной разработке.
Стоимость инструментов. Braintrust 18 600 ₽/мес. фикс (без лимита по пользователям). LangSmith 2 900 ₽/место/мес. Galileo — enterprise. Self-hosted Langfuse / Confident AI: бесплатно + ~3 700 ₽/мес. на Postgres.
ROI. Одна пойманная регрессия до того, как её увидели клиенты, окупает годовую обвязку оценки целиком. Сложнее обосновать «мы не регрессировали» — оценка в этом смысле страховка, а не фича.
Хотите эталонный датасет под ваше LLM-приложение?
Пришлите ваше приложение и несколько продакшен-трейсов. За неделю мы соберём эталонный датасет на 50 кейсов и проведём базовую оценку. Бесплатно.
Мини-кейс: оценка голосового агента экономит 3 млн ₽/мес. на оттоке
B2B-платформа голосовой поддержки клиентов на ИИ (под NDA, ~3 млн звонков в месяц) пришла к нам в конце 2025-го с растущим оттоком. Обратная связь клиентов: «бот раньше работал, теперь даёт неправильные ответы». Команда инженерии полгода итерировала промпты и обновляла модели — без оценочной обвязки.
Четырёхнедельная интервенция. Неделя 1: собрали эталонный датасет на 240 пар «запрос — ответ» по 8 сценариям, разобрав 6 недель продакшен-звонков; разметку делали доменные эксперты — их менеджеры поддержки. Неделя 2: подключили Braintrust + RAGAS; прогнали базовую оценку на текущем продакшене; зафиксировали пороги качества. Неделя 3: пересобрали CI/CD-пайплайн с гейтами оценки на каждом PR. Неделя 4: прогнали регресс-анализ за полгода и нашли ту самую правку промпта, с которой началось падение качества.
Результат. Метрика faithfulness на эталонном датасете выросла с 0,71 (после регрессии) обратно до 0,89 — после отката плохой правки промпта и перенастройки. Жалобы клиентов на качество за следующий месяц упали на 60 %. Отток, который команда списывала на «качество бота» (~3 млн ₽/мес. упущенного MRR), развернулся за 6 недель. Инвестиция: 2,4 млн ₽ за четырёхнедельный проект и 18 700 ₽/мес. на Braintrust далее. Чтобы получить такой же аудит, позвоните или напишите нам.
Каркас решения: подобрать стек оценки за пять вопросов
В1. Какой стек? Много LangChain — LangSmith. Смешанный или нейтральный — Braintrust. Self-hosted и комплаенс — Langfuse или Confident AI.
В2. Сколько LLM-фич? 1 — open-source RAGAS или DeepEval хватает. 2–3 — управляемая платформа окупается. 5+ — без управляемой платформы уже не обойтись.
В3. Требования по комплаенсу? Стандартные — любая cloud-опция. HIPAA / SOC 2 / резидентность ЕС — self-hosted Langfuse / Confident AI внутри вашего VPC.
В4. Размер команды? 1–3 инженера — code-first OSS (DeepEval, RAGAS). 4–15 — управляемый UI помогает. 15+ — enterprise-тариф с ролевым доступом.
В5. Объём в продакшене? <10 тыс. LLM-вызовов в день — подходит любой инструмент. >100 тыс. — выбирайте те, у которых сильное семплирование и контроль расходов.
Чего избегать
1. LLM-as-judge как единственная метрика. У судей-LLM есть искажения (более длинные ответы, определённые формулировки, предпочтение собственного семейства моделей). Обязательно комбинируйте хотя бы с одной другой категорией: с эталоном, бизнес-метрикой или человеческой оценкой.
2. Эталонный датасет устаревает за полгода. Раз в квартал добавляйте новые запросы из продакшена. Без обновления вы тестируете вчерашнее приложение, а не сегодняшнее.
3. Нет интеграции с CI/CD. Оценка по ночам ловит регрессии с опозданием в дни. Оценка как гейт PR — до мерджа. Первое — наблюдаемость, второе — реальная защита от деградации качества.
4. Команда инженерии размечает свои же данные. Инженеры знают, что должна делать LLM, и размечают снисходительно. Доменные эксперты (реальные пользователи или их прокси) размечают строго. Всегда привлекайте внешних разметчиков.
5. Считать оценку разовым проектом. Оценка — это непрерывный процесс. Соберите v0-обвязку и итерируйте датасет, метрики и гейты по мере развития продукта.
Какие KPI отслеживать
KPI качества. Ключевые метрики оценки (faithfulness > 0,85, релевантность ответа > 0,85 и т. д.). Регрессионная доля (% PR, проваливших гейт оценки). Время до обнаружения дрейфа в продакшене (цель: <24 часов).
Бизнес-KPI. Жалобы клиентов на качество в месяц (цель: тренд вниз). Доля доведённых до конца обращений (для голосовых агентов) или доля выполненных задач (для текстовых). Отток, который вы относите на качество LLM.
KPI надёжности. Аптайм пайплайна оценки (цель: 99 %+). Доля ложных срабатываний на гейтах качества (цель: <10 % — гейты, которые блокируют хорошие PR, подрывают доверие команды).
FAQ
Braintrust или LangSmith?
Braintrust — для стеков не на LangChain, мультифичных команд и тех, кому удобнее фикс-цена. LangSmith — для стеков на LangChain, где важен нативный трейсинг фреймворка. Оба отличные; выбирайте под стек.
RAGAS — этого хватит?
Для RAG-приложений RAGAS хорошо закрывает качество поиска и генерации. Сверху нужна платформа трейсинга (Helicone, Langfuse) для наблюдаемости в продакшене. Для интеграции с CI/CD понадобится Braintrust или LangSmith — или собственный код на Python.
Какого размера должен быть эталонный датасет?
100–200 вопросов для v1. Меньше 50 — слишком высокая дисперсия, метрикам нельзя доверять. Больше 500 — отдача падает; лучше обновлять датасет раз в квартал, чем вкладываться в один огромный статичный набор.
Можно ли оценивать GPT-4 силами GPT-4?
Можно — это и есть LLM-as-judge. Оговорка: GPT-4 склоняется в сторону собственных ответов (а также более длинных и определённых формулировок). Лучшая практика — судить чужой моделью (Claude судит GPT или наоборот) и периодически дополнять человеческой оценкой.
Для чего нужны A/B-тесты?
A/B-тесты измеряют поведение пользователей, а не качество вывода. Подходят для: сравнения промпта v1 и v2 в продакшене, проверки, что выигрыш по метрикам оценки даёт выигрыш по поведению пользователей. Не подходят для: ловли регрессий на крайних случаях (большинство пользователей в них не попадает).
Как оценивать без эталонного ответа?
Метрики без эталона: LLM-as-judge по критериям («ответ опирается на факты?»), семантическая близость к извлечённому контексту, классификаторы галлюцинаций, токсичность. RAGAS под капотом использует именно их. Менее надёжно, чем с эталоном, но применимо везде.
Нужно ли оценивать каждый LLM-вызов в продакшене?
По выборке, не сплошняком. 5–10 % — баланс цены и покрытия. Для высокорисковых сценариев (медицина, финансы, право) — 100 %. Трейсы пишите на 100 %, оценочные метрики считайте на 5–10 %.
Сколько занимает запуск оценки в продакшене?
С нуля — 2–3 недели на эталонный датасет, интеграцию Braintrust и гейты в CI/CD. Накатить на существующее приложение — 4–6 недель: дольше всего тянется сборка эталонного датасета. С нашими готовыми паттернами по прошлым LLM-проектам мы обычно укладываемся в 3–4 недели.
Что почитать дальше
Voice AI
OpenAI Realtime в продакшене
Голосовой агент, которому нужна оценка на продакшен-трейсах.
RAG
RAG для видео и аудио
Архитектура RAG — её и оценивает эта статья.
AI Infra
MCP для видеоприложений
Точность вызова инструментов — часть оценки MCP-серверов.
SDK
LiveKit AI Agents
Стек голосового агента, который оценка покрывает целиком.
NFR
Чек-лист NFR
Оценка — часть NFR по наблюдаемости для LLM-приложений.
Готовы выпускать LLM-приложения, которые держат качество?
Оценка LLM — это новый MLOps. Продакшен LLM-приложения без оценки тихо ломаются: апгрейд модели незаметно ухудшает качество, правка промпта рушит крайние случаи, клиенты уходят, не успев пожаловаться. Каркас из 5 категорий (с эталоном, без эталона, на основе модели, человеческая оценка, бизнес-метрики) ловит разные классы багов; в зрелых деплоях используют 3 и больше.
Эталонный датасет — самый сложный шаг и самый ценный актив. Качественные гейты в CI/CD сильнее ретроспективных дашбордов. Матрица инструментов богатая (Braintrust, LangSmith, Galileo, Confident AI, Helicone, Langfuse) — выбор зависит от стека и комплаенс-требований. RAGAS для метрик под RAG работает поверх любой платформы.
Хотите оценочную обвязку для LLM за 4 недели?
Пришлите ваше приложение, стек и продакшен-трейсы. За 4 недели мы соберём эталонный датасет, интеграцию с Braintrust, гейты в CI/CD и базовую оценку. Фиксированная цена.

