Главное

1 млн одновременных зрителей — это задача для CDN, а не для SFU. WebRTC SFU выдерживают около 500–2000 зрителей на узел и обходятся в 1,5–6 млн ₽ в месяц при 100 тысячах. LL-HLS или MoQ через CDN масштабируются до миллионов при той же стоимости egress за гигабайт.

Гибрид — вариант по умолчанию. WHIP в небольшую WebRTC-меш для ведущих и контрибьюторов; LL-HLS или MoQ для раздачи аудитории; HLS на edge для устаревших плееров. Discord, Hopin и крупнейшие спортивные вещатели работают по разновидностям этого стека.

1 млн зрителей в течение часа на 4 Мбит/с — это примерно 4,5 ПБ egress. При типовой прайс-листовой цене CDN 3,75 ₽ за гигабайт это около 16,8 млн ₽ только на трафик — до транскодирования, DRM, SSAI, ингеста и работы дежурной смены.

Надёжность ломается раньше, чем заканчивается полоса. Бой Тайсон–Пол на Netflix в ноябре 2024 года достиг пика в 65 млн одновременных зрителей и собрал свыше 100 тысяч жалоб на сбои. Лавины запросов к манифестам, региональные горячие точки и перекосы в ингесте ломаются раньше, чем упирается в потолок egress.

Точки смены архитектуры известны. До 10 тысяч — LL-HLS + CDN. От 10 до 100 тысяч — каскадный SFU + LL-HLS. От 100 тысяч до 1 млн — CDN-первичная схема с WebRTC-контрибуцией и DRM. Свыше 1 млн — петабайтный CDN с предиктивным прогревом кэша и протестированными сценариями отказа.

Почему масштабирование real-time видео до 1 млн зрителей всё ещё сложно в 2026 году

Если вы никогда не запускали мероприятие на 1 млн зрителей, ваша интуиция о том, где всё сломается, скорее всего ошибается. Полоса — решённая задача: AWS зафиксировал пик egress 268 Тбит/с в ноябре 2025 года, чего достаточно, чтобы доставлять HD-видео примерно 45 млн одновременных зрителей. У CDN есть каналы. Ломается всё остальное: планирование сегментов в реальном времени, согласование кэша манифестов, региональные горячие точки, переключение пути ингеста, всплески DRM-токенов, синхронизация рекламных меток по лестнице битрейтов. Бой Тайсон–Пол на Netflix в ноябре 2024 года вышел на 65 млн одновременных зрителей и всё равно собрал более 100 тысяч жалоб на сбои. Проблема была не в мощности, а в координации.

Эта статья — рабочий плейбук, по которому Фора Софт строит (или спасает) стриминговые продукты с аудиторией в шесть и семь знаков. Мы говорим об архитектурах, которые работают, о расходах, которые реально появляются в счёте, и о приёмах надёжности, которые выдерживают живую аудиторию — а не о слайдах, которые выдерживают демонстрацию вендора.

Почему этот плейбук написала Фора Софт

Фора Софт выпускает видео- и AI-продукты с 2005 года — их уже более 600. Real-time и крупнотиражный стриминг находятся в центре нашей практики: WebRTC, MediaSoup, LiveKit, Janus, Wowza, RTMP, SRT, LL-HLS, MoQ. Мы используем спецификационно-агентную инженерию, чтобы сжать сборку стримингового стека до 8–12 недель там, где традиционные студии называют сроки в два квартала.

У этого руководства есть три референс-проекта. BrainCert — это виртуальный класс-LMS на WebRTC с выручкой 225 млн ₽ и более чем 100 000 клиентов. Sprii — платформа live-video-шопинга, через интерактивные трансляции которой прошло более 365 млн € продаж. Worldcast Live доставляет HD-трансляции концертов с задержкой меньше секунды глобальной аудитории. Каждое архитектурное решение из этого материала мы хотя бы раз приняли в продакшене.

Оцениваете сборку real-time стриминга для большой аудитории?

Расскажите о целевой аудитории, бюджете задержки и модели контрибуции. Мы вернёмся с разбором гибридного стека WebRTC + LL-HLS + MoQ и моделью затрат.

Позвоните нам → Напишите нам →

Краткий ответ за 60 секунд

Нагрузку несут три протокола. WebRTC доставляет интерактивное видео с задержкой меньше секунды небольшой группе; его потолок — от 10 до 100 тысяч зрителей в зависимости от стека и бюджета. LL-HLS и MoQ доставляют миллионам через CDN с задержкой 1–3 секунды. Базовая архитектура для серьёзного продукта на 1 млн зрителей в 2026 году — гибридная: WebRTC-ингест на основе WHIP для ведущих и контрибьюторов, LL-HLS или MoQ как магистраль вещания, HLS на edge как fallback для длинного хвоста.

Магистраль выбирайте по бюджету задержки. Меньше секунды — MoQ там, где можно развернуть, иначе WebRTC. 1–3 секунды — LL-HLS. Задержка терпима выше — стандартный HLS или DASH, дешёвый и универсальный. Дальше в статье — математика, размеры кластеров и правила надёжности, стоящие за этой рекомендацией.

Эталонная архитектура для 100 тысяч–1 млн одновременных зрителей

Пять уровней. Контрибуция, ингест, упаковка, дистрибуция, монетизация. Стройте их как независимые слои с чистыми интерфейсами, чтобы можно было заменить один уровень, не переделывая остальные.

Эталонная архитектура для масштабирования real-time видеостриминга до 1 млн одновременных зрителей: WebRTC-меш контрибуции с WHIP и SRT/RTMP-энкодерами, питающими per-title энкодерную ферму и CMAF-пакетайзер, мульти-CDN дистрибуция с MoQ-релейным уровнем и LL-HLS магистралью вещания, выпуск DRM-токенов на edge и серверная вставка рекламы, control plane, отслеживающий долю попаданий в кэш манифестов, долю поздних сегментов и региональную задержку

Рисунок 1. Эталонная пятиуровневая архитектура для прямых трансляций на 100 тысяч–1 млн одновременных зрителей.

Контрибуция

Ведущие, спикеры, контрибьюторы и полевые камеры. WebRTC через WHIP — современный путь ингеста: меньше 100 мс наверх, рукопожатие за один запрос, ICE из коробки. Дополните его SRT или RTMP для устаревших энкодеров.

Кодирование и упаковка

Небольшая интерактивная WebRTC-меш для ведущих; per-title энкодер, выдающий лестницу из нескольких рендишенов; пакетайзер, который делает дорожки LL-HLS и MoQ. Аппаратное ускорение (AWS VT1, NVENC, выделенные транскодеры) окупает себя примерно с 50 параллельных кодирований.

Дистрибуция

Мульти-CDN по умолчанию. AWS CloudFront, Cloudflare, Fastly и Akamai для уровня вещания. Заранее размещённые кэш-узлы в регионах, где будет основная аудитория. Репликация манифестов, чтобы 200 тысяч запросов в секунду не били в один origin.

Монетизация

DRM-токены (Widevine, PlayReady, FairPlay), выпускаемые на edge. SSAI для вставки рекламы по меткам SCTE-35 в исходном фиде. Эти позиции в смете часто пристёгивают в самом конце сборки — закладывайте их в первую неделю.

Control plane

Наблюдаемость по каждому уровню — доля попаданий в кэш манифестов, доля поздних сегментов, скорость выпуска DRM-токенов, P99-задержка glass-to-glass по регионам. Control plane — это разница между ночью на 99,9% и ночью на 99,99%.

Точки смены архитектуры: 10 тысяч, 100 тысяч, 1 млн, 10 млн

Одновременных зрителей Архитектура Где ломается, если ошиблись
До 10 тысяч Один LL-HLS-origin + CDN или одна SFU-меш Без кэша манифестов одиночный origin насыщается около 50 тысяч запросов в секунду.
10–100 тысяч Каскадная SFU-меш + LL-HLS-гибрид; мультирегиональный CDN Стоимость SFU за минуту обгоняет выручку; счета за TURN взрываются.
100 тысяч–1 млн CDN-первичная схема; WebRTC только на контрибуции; per-title кодирование; DRM; SSAI Лавина запросов к origin манифестов; насыщение региональных горячих точек.
Свыше 1 млн Мульти-CDN, предиктивный прогрев кэша, предиктивное переключение ингеста, traffic engineering Непротестированные сценарии отказа; гонки в доступности сегментов.

Переходите к CDN-первичной схеме, как только пиковый прогноз превышает 50 тысяч. Перепроектирование на 200 тысячах — это квартал, которого у вас на запуске нет.

WebRTC SFU при масштабировании: где ломается экономика

Один SFU-узел держит 500–2000 зрителей в зависимости от соотношения разрешений, числа симулкаст-слоёв и модели CPU. Современные стеки — LiveKit, MediaSoup, Janus, Pion — все попадают в эту полосу. Чтобы обслужить 100 тысяч одновременных, нужно 50–100 SFU-узлов в каскадной меш, плюс TURN-релеи для тех 10–20% зрителей, которые сидят за симметричным NAT.

Счета растут быстро. Управляемые сервисы (LiveKit Cloud, Daily, Twilio) берут 0,225–1,8 ₽ за минуту в зависимости от разрешения. На 100 тысячах одновременных в течение часа это порядка 1,3–10,8 млн ₽ только за минуты — до TURN, до хранения, до записи. Самостоятельные SFU-кластеры на масштабе дешевле, но добавляют операционную нагрузку, которую небольшие команды недооценивают.

Решающая цифра: выше 100 тысяч одновременных стоимость WebRTC SFU в пересчёте на зрителя в час превышает LL-HLS через CDN в 5–15 раз. Протокол по-прежнему выигрывает на низколатентной контрибуции, разговорных сегментах и интерактивных сценах с ограниченным числом участников — просто не для аудитории.

LL-HLS и DASH на масштабе CDN

Cloudflare Stream, Mux, Akamai, AWS Elemental + CloudFront и Bitmovin сегодня поддерживают Low-Latency HLS. Задержка glass-to-glass лежит в полосе 1–3 секунды на массовых CDN — достаточно близко к интерактиву для спорта, киберспорта, live-коммерции и концертов, где аудитория односторонняя. У стандартного HLS тоже есть своё место: 3–8 секунд, широкая совместимость, удобство для регуляторов.

Экономика — это экономика CDN: вы платите за egress 0,375–6,375 ₽ за гигабайт в зависимости от объёма и контракта. Прайс-листы 2025 года у гиперскейлеров крутятся около 3,75 ₽ за гигабайт, на согласованных коммитах часто вдвое меньше, а на бюджетных CDN (Bunny, KeyCDN) — от 0,75 до 3 ₽ за гигабайт. На 1 млн одновременных за час трансляции вы прокачиваете около 4,5 ПБ — примерно 16,8 млн ₽ по ставке 3,75 ₽ за гигабайт, и меньше на серьёзном коммите.

Берите LL-HLS первым выбором, когда: аудитория терпит 1–3 секунды задержки и нужна максимальная совместимость с браузерами, приложениями и SmartTV сегодня — это покрывает около 95% продуктов one-to-many стриминга.

Где MoQ вписывается в стек на 1 млн зрителей

Media over QUIC — это протокол, который закрывает разрыв в 1–3 секунды у LL-HLS. WINK Streaming и Cloudflare крутят продакшен MoQ с задержкой 200–300 мс glass-to-glass. WebTransport вошёл в Web Platform Baseline в марте 2026 года, так что все основные браузеры играют MoQ без флагов. Подробно протокол мы разбирали в материале о приложениях на Media over QUIC.

Для продуктов на 1 млн зрителей MoQ — это субсекундная альтернатива LL-HLS со схожей экономикой CDN. Он уже готов к продакшену для one-to-many дистрибуции в архитектурах, которые выкатили Cloudflare, nanocosmos и WINK. Интеграция с премиум-DRM, соответствие FCC-подобному вещательному регулированию и серверный ABR пока дозревают — если что-то из этого нужно, запускайте MoQ как низколатентную полосу рядом с LL-HLS, а легаси-полосу под регуляторы держите отдельно.

Сколько на самом деле стоит 1 млн одновременных за час

Компонент Драйвер Диапазон (₽)
CDN egress ~4,5 ПБ по 1,5–3,75 ₽ за гигабайт 6,7–16,8 млн ₽
Per-title кодирование и упаковка Лестница из 8 рендишенов с аппаратным ускорением 600 тыс.–1,5 млн ₽
WebRTC SFU-кластер (контрибуция + интерактив) Ограниченная меш ведущих + небольшая аудитория 375 тыс.–2,2 млн ₽
Origin / ингест Резервный ингест, инжекция меток SCTE-35 375 тыс.–1,1 млн ₽
DRM Выпуск токенов на edge, мультивендорный DRM 75 тыс.–375 тыс. ₽
SSAI / сшивка рекламы Решение и сшивка под каждый показ 150 тыс.–750 тыс. ₽
Инжиниринг и дежурство Штаб поддержки на время мероприятия 750 тыс.–3 млн ₽

Итого на одно мероприятие: примерно 9–25,8 млн ₽ для настоящего 1 млн одновременных. Большинство команд укладываются в 3,7–11,2 млн ₽, потому что в первый день до 1 млн так и не доходит. Правильный план — спроектировать стек так, чтобы архитектура между 100 тысячами и 1 млн не менялась — меняется только мощность.

Хотите модель затрат на ваших цифрах?

Пришлите пиковую аудиторию, лестницу битрейтов и целевую задержку. Мы посчитаем CDN egress, транскодирование, DRM и SSAI.

Позвоните нам → Напишите нам →

Планирование мощностей: кластеры, регионы, запас

Размер SFU. 500–2000 зрителей на узел. Закладывайте 65% утилизации на пике, чтобы региональный сценарий отказа не превратился в каскад. Для 100 тысяч одновременных на стороне контрибуции это 50–100 узлов плюс 50% буфера.

Размер edge-кэша. На масштабе доминируют запросы к манифестам. При сегментах раз в 5 секунд и 1 млн зрителей вы получаете порядка 200 тысяч запросов к манифестам в секунду. Ставьте TTL манифеста 30 секунд, реплицируйте по регионам и инвалидируйте по версии при перевыпуске.

Региональное распределение. Размещайте ингест в ближайшем к вещателю регионе (Нью-Йорк, Франкфурт, Токио). Поднимайте edge-узлы CDN в регионах, где будет основная аудитория. Для US-prime спорта это East-1 + East-2 + Central + West с горячо-тёплым предразмещением.

Размер TURN. 10–20% WebRTC-зрителей будут нуждаться в TURN-релее. На 100 тысячах одновременных контрибьюторов закладывайте 10–20 тысяч ретранслируемых пиров по 1 Мбит/с каждый. Полоса реальная, счёт реальный.

Надёжность на масштабе: четыре режима отказа, которые кусаются

1. Лавина запросов к манифесту. 1 млн клиентов перезапрашивает манифест каждые несколько секунд. Без защиты origin получает всплеск 50–200 тысяч запросов в секунду. Митигация: TTL кэша 30 секунд, репликация по регионам, инвалидация при перевыпуске, никогда не отдавать манифест с origin без CDN перед ним.

2. Насыщение региональной горячей точки. 40% зрителей US-prime придут в один и тот же восточно-побережный POP. Прогревайте региональный кэш первыми сегментами до начала мероприятия; направляйте перелив осознанно.

3. Отказ пути ингеста. Аплинк вещателя падает, RTMP отваливается по таймауту, энкодер уходит в синий экран. Без проверенного второго пути ингеста рушится всё мероприятие. Митигация: двойной WHIP-ингест с автоматическим переключением, резервные энкодеры, мониторинг heartbeat’ов.

4. Гонка доступности сегмента. Энкодер заканчивает сегмент в t=2,5 с; клиенты запрашивают в t=2,0 с; CDN отвечает 404 и провоцирует штормы повторов. Митигация: предиктивная генерация сегментов, щедрые grace-окна на сегментах, дружелюбные к 503 повторы на стороне плеера.

Запускайте репетицию под полной нагрузкой, когда: мероприятие важное и аудитория превышает 100 тысяч. Непротестированное переключение — самая дорогая позиция в смете.

Лестница кодирования, выбор кодека и аппаратное ускорение

Типичная лестница 2026 года — 8 рендишенов от 144p до 2160p, кодируется по одному на источник и отдаётся через ABR. На масштабе 1 млн выбор кодека имеет значение.

Кодек Битрейт относительно H.264 Аппаратный энкод (live) Когда использовать
H.264 База Универсально: NVENC, Apple, VT1 Максимальная совместимость, широкая аудитория.
H.265 / HEVC Примерно на 30% ниже Доступен повсеместно Премиум-аудитория с современными устройствами.
AV1 Примерно на 40–50% ниже Live HW ограничен; развивается VOD сегодня; live в 2026–2027 по мере появления чипов.

Для большинства сборок 2026 года поставляйте H.264 по всей лестнице и добавляйте HEVC для премиум-устройств. AV1 в live технически возможен — YouTube использует его для более чем 75% VOD — но история с аппаратным live-энкодом ещё только разворачивается.

DRM и SSAI на масштабе

DRM-токены. Мультивендорный DRM (Widevine, PlayReady, FairPlay) для лицензированного спорта и кино обязателен. Выпускайте токены на edge, чтобы всплеск на старте мероприятия не клал единственный токен-сервис. Закладывайте всплеск в 5–10 раз выше базовой нагрузки на нулевой минуте.

SSAI. Серверная вставка рекламы по меткам SCTE-35 в исходном фиде — доминирующий шаблон для live. Сложность — в покадрово точной синхронизации тайминга рекламы по всей лестнице битрейтов: рассогласованные метки между рендишенами вызывают чёрные кадры или пропущенные ролики.

Мини-кейс: Sprii — интерактивный live-шопинг на масштабе

Ситуация. Платформе live-шопинга нужно было субсекундное видео для ведущего на сцене и broadcast-класс доставки покупательской аудитории, которая в пиковые кампании растёт на порядок — одновременно с платёжными потоками, удержанием товара и вставкой рекламы.

Что мы построили. Гибридный стек: WebRTC-меш для ведущих и приглашённых контрибьюторов с WHIP-ингестом, уровень вещания LL-HLS на мульти-CDN egress, выпуск edge-токенов для авторизации покупок и предиктивное предразмещение кэша перед стартами кампаний. Мы инструментировали долю попаданий в кэш манифестов, P99 glass-to-glass и сквозную воронку покупки в виде единого live-дашборда.

Результат. За время работы платформа провела через свои live-трансляции более 365 млн € продаж. Архитектура держит всплески от нескольких тысяч одновременных в обычные часы до пиков крупных кампаний без перепроектирования.

Фреймворк принятия решения: выбираем магистраль за пять вопросов

1. Каков пик аудитории? До 10 тысяч — LL-HLS + CDN; свыше 100 тысяч — CDN-первичная схема, WebRTC только на контрибуции.

2. Каков бюджет задержки? Меньше секунды — MoQ там, где можно развернуть, иначе WebRTC. 1–3 секунды — LL-HLS. Терпимо больше — стандартный HLS.

3. Аудитория интерактивная или односторонняя? Интерактивная — небольшая WebRTC-меш; односторонняя — CDN-магистраль.

4. Какое лицензирование действует? Премиум-контент с DRM или регулируемое вещание — LL-HLS + SSAI — проверенный путь; MoQ оставьте для свободного live.

5. Сколько у вас инжиниринга? Команда из двух пицц — управляемый CDN + LL-HLS. Команды побольше с дежурствами — мульти-CDN с предиктивным прогревом кэша.

Пять ловушек, в которые попадают команды

1. Подгонка SFU под аудиторию. WebRTC SFU — для контрибуции и небольших интерактивных панелей. После 10 тысяч зрителей маршрутизируйте через CDN.

2. Зависимость от одного CDN. Один инцидент у одного CDN роняет всё мероприятие. Мульти-CDN с переключением на лету необходим выше 100 тысяч.

3. Пропуск нагрузочной репетиции. Планирование мощностей на бумаге — это не мощности. Прогоните синтетический нагрузочный тест с коэффициентом 1,2× на боевом стеке за неделю до события.

4. Игнорирование всплесков DRM-токенов. 1 млн зрителей, бьющих в endpoint выпуска токенов на нулевой минуте, — это случайный DDoS. Edge-выпуск и планирование с учётом всплесков лечат проблему.

5. Отношение к SSAI как к второстепенной задаче. Тайминг рекламы по лестнице битрейтов — самая частая причина, по которой реклама уходит в тишину или в чёрный кадр. Проверяйте покадровую обработку меток до запуска.

Берите мульти-CDN egress, когда: аудитория — источник дохода, мероприятие одноразовое, а цена пятиминутного простоя выше цены второго контракта. Это большинство продакшен-трансляций выше 100 тысяч.

Какие KPI измерять

KPI качества. P50 и P99 задержки glass-to-glass по регионам. Доля ребуферизации (цель — ниже 0,5%). Доля попаданий в кэш манифестов (цель — выше 99%).

Бизнес-KPI. Стоимость одного зрителя в час со всеми расходами. Пик аудитории и устойчивая одновременность по 90-му процентилю. Доля жалоб на сбои на 100 тысяч зритель-часов.

KPI надёжности. Соответствие SLA по uptime (цель — 99,99%). MTTR после переключения ингеста. Доля успешных выпусков DRM-токенов на нулевой минуте.

Когда НЕ нужно проектировать под 1 млн одновременных

Большинство продуктов никогда не увидят 1 млн одновременных. Закладывать это с первого дня — отличный способ потратить два квартала на мощность, которая вам не нужна. Стройте под имеющуюся аудиторию плюс 5-кратный запас; проектируйте архитектуру так, чтобы переход от 100 тысяч к 1 млн означал больше мощности, а не другой стек.

Есть исключение. Если запуск привязан к известному событию — финал чемпионата, глобальная презентация продукта, концерт известной звезды — считайте первое мероприятие архитектурной целью и репетируйте сценарии переключения. Цена недоинженеренного запуска — дни возвратов и заголовков.

Нужны эталонная архитектура и план нагрузочной репетиции?

Мы поставляем рабочий гибридный пилот — WebRTC-контрибуция, LL-HLS-вещание, мульти-CDN egress, наблюдаемость — за 8–12 недель. Принесите целевую аудиторию.

Позвоните нам → Напишите нам →

FAQ

Можно ли масштабировать WebRTC до 1 млн одновременных зрителей?

Экономически — нет. Каскадные SFU-меши способны выйти на сотни тысяч, но стоимость в пересчёте на зрителя в час на этом масштабе превышает LL-HLS через CDN в 5–15 раз. Правильный шаблон — WebRTC для контрибуции и небольших интерактивных сегментов, LL-HLS или MoQ как магистраль вещания.

Какую задержку даст LL-HLS или MoQ на масштабе 1 млн?

LL-HLS укладывается в 1–3 секунды glass-to-glass на массовых CDN. Продакшен-развёртывания MoQ (Cloudflare, WINK) выходят на 200–300 мс. Оба масштабируются до миллионов одновременных зрителей с одинаковой экономикой egress; MoQ — низколатентная полоса там, где это допускает зрелость продакшена.

Сколько на самом деле стоит 1 млн одновременных?

Около 9–25,8 млн ₽ за часовое мероприятие — в зависимости от условий контракта с CDN, набора кодеков, DRM, SSAI и состава дежурной смены. Большая часть (60–80%) — это CDN egress. Согласованные коммиты и стратегии мульти-CDN заметно сдвигают счёт.

Брать управляемый сервис или строить своё?

До 100 тысяч одновременных управляемые сервисы (Cloudflare Stream, Mux, AWS Elemental) поставляются быстрее и в эксплуатации дешевле. Выше 100 тысяч с регулярными мероприятиями обычно лучше гибрид: вы контролируете упаковку и origin, а мощность CDN арендуете. Чистое DIY на мультимиллионном масштабе — это плейбук YouTube/Netflix и требует выделенной платформенной команды.

Как избежать сценария Netflix Тайсон–Пол?

Репетируйте переключение под полной синтетической нагрузкой. Добавьте мульти-CDN с traffic engineering. Агрессивно кэшируйте манифесты на edge. Прогревайте региональные кэши до начала мероприятия. Мониторьте долю попаданий в кэш манифестов и доступность сегментов в реальном времени с эскалацией дежурной смены по порогам. Ничего экзотического здесь нет; всё это нужно протестировать до прихода аудитории.

Когда выбирать MoQ вместо LL-HLS?

Когда нужна полоса задержки 200–300 мс и аудитория может играть через WebTransport (браузеры с марта 2026 года в Baseline) или нативный QUIC. LL-HLS по-прежнему выигрывает для совместимости с легаси SmartTV/STB, FCC-подобного регулируемого вещания и тяжёлого DRM-премиум контента в 2026 году.

Сколько занимает работа с Фора Софт по масштабированию?

Рабочий гибридный пилот — WebRTC-контрибуция, LL-HLS-магистраль вещания, мульти-CDN egress, мониторинг — собирается за 8–12 недель через спецификационно-агентную инженерию. Полный продакшен-выкат с DRM, SSAI, мультирегиональным переключением и нагрузочной репетицией обычно укладывается в 12–20 недель.

Что насчёт цены за гигабайт на гиперскейле — 3,75 ₽ — правильная цифра?

Прайс-листы AWS CloudFront, Fastly и Akamai в 2025–2026 годах находятся в районе 3–6,3 ₽ за гигабайт в зависимости от объёма. Согласованные коммиты на масштабе регулярно сдвигают это к 0,75–2,2 ₽ за гигабайт. Бюджетные CDN (Bunny, KeyCDN) держат прайс 0,75–3 ₽ за гигабайт. Используйте 3,75 ₽ за гигабайт для оценок на салфетке; рассчитывайте, что коммит заметно опустит цифру.

Подробно про MoQ

Создание приложений на Media over QUIC

Архитектура, задержка, расходы и плейбук гибридной миграции для live-медиа.

Компромиссы WebRTC

WebRTC vs Agora: архитектурные компромиссы

Build vs buy для контрибьюторской стороны live-стека.

Найм

Нанять компанию-разработчика WebRTC vs строить in-house

Гид покупателя для основателей продуктов стриминга и real-time видео.

Build vs buy

Кастомная разработка на Wowza в 2026 году

Анализ build-vs-buy для платформ низколатентного стриминга.

Инженерные практики

Real-time обработка видео с AI

Архитектурные шаблоны и бюджеты задержки из 625+ выпущенных видеопроектов.

Готовы проектировать под аудиторию в 1 млн зрителей?

Протоколы понятны. Сложное — это координация, переключение и дисциплина по расходам. Стройте гибрид — WebRTC для контрибуции, LL-HLS или MoQ для дистрибуции, HLS для длинного хвоста, — честно подбирайте размер каждого уровня, репетируйте режимы отказа под нагрузкой и инструментируйте control plane так, чтобы вы находили проблему раньше аудитории.

Если вы прорабатываете стриминговый продукт с аудиторией в шесть или семь знаков, выбор технологий общий. Архитектура должна лечь под кривую вашей аудитории, бюджет задержки и модель монетизации. Это и есть тот разговор, который мы ведём с потенциальными клиентами: принесите ограничения — уйдёте с архитектурой, моделью затрат и оценкой сроков.

Поговорите с командой, которая выпустила 600+ видеопродуктов

WebRTC, LL-HLS, MoQ, мульти-CDN, DRM, SSAI — мы знаем, какой инструмент под какую задачу и под какой масштаб. Принесите кейс — мы принесём архитектуру и оценку сроков.

Позвоните нам → Напишите нам →

  • Технологии
    Услуги
    Процессы
    Разработка