
Главное
• 1 млн одновременных зрителей — это задача для CDN, а не для SFU. WebRTC SFU выдерживают около 500–2000 зрителей на узел и обходятся в 1,5–6 млн ₽ в месяц при 100 тысячах. LL-HLS или MoQ через CDN масштабируются до миллионов при той же стоимости egress за гигабайт.
• Гибрид — вариант по умолчанию. WHIP в небольшую WebRTC-меш для ведущих и контрибьюторов; LL-HLS или MoQ для раздачи аудитории; HLS на edge для устаревших плееров. Discord, Hopin и крупнейшие спортивные вещатели работают по разновидностям этого стека.
• 1 млн зрителей в течение часа на 4 Мбит/с — это примерно 4,5 ПБ egress. При типовой прайс-листовой цене CDN 3,75 ₽ за гигабайт это около 16,8 млн ₽ только на трафик — до транскодирования, DRM, SSAI, ингеста и работы дежурной смены.
• Надёжность ломается раньше, чем заканчивается полоса. Бой Тайсон–Пол на Netflix в ноябре 2024 года достиг пика в 65 млн одновременных зрителей и собрал свыше 100 тысяч жалоб на сбои. Лавины запросов к манифестам, региональные горячие точки и перекосы в ингесте ломаются раньше, чем упирается в потолок egress.
• Точки смены архитектуры известны. До 10 тысяч — LL-HLS + CDN. От 10 до 100 тысяч — каскадный SFU + LL-HLS. От 100 тысяч до 1 млн — CDN-первичная схема с WebRTC-контрибуцией и DRM. Свыше 1 млн — петабайтный CDN с предиктивным прогревом кэша и протестированными сценариями отказа.
Почему масштабирование real-time видео до 1 млн зрителей всё ещё сложно в 2026 году
Если вы никогда не запускали мероприятие на 1 млн зрителей, ваша интуиция о том, где всё сломается, скорее всего ошибается. Полоса — решённая задача: AWS зафиксировал пик egress 268 Тбит/с в ноябре 2025 года, чего достаточно, чтобы доставлять HD-видео примерно 45 млн одновременных зрителей. У CDN есть каналы. Ломается всё остальное: планирование сегментов в реальном времени, согласование кэша манифестов, региональные горячие точки, переключение пути ингеста, всплески DRM-токенов, синхронизация рекламных меток по лестнице битрейтов. Бой Тайсон–Пол на Netflix в ноябре 2024 года вышел на 65 млн одновременных зрителей и всё равно собрал более 100 тысяч жалоб на сбои. Проблема была не в мощности, а в координации.
Эта статья — рабочий плейбук, по которому Фора Софт строит (или спасает) стриминговые продукты с аудиторией в шесть и семь знаков. Мы говорим об архитектурах, которые работают, о расходах, которые реально появляются в счёте, и о приёмах надёжности, которые выдерживают живую аудиторию — а не о слайдах, которые выдерживают демонстрацию вендора.
Почему этот плейбук написала Фора Софт
Фора Софт выпускает видео- и AI-продукты с 2005 года — их уже более 600. Real-time и крупнотиражный стриминг находятся в центре нашей практики: WebRTC, MediaSoup, LiveKit, Janus, Wowza, RTMP, SRT, LL-HLS, MoQ. Мы используем спецификационно-агентную инженерию, чтобы сжать сборку стримингового стека до 8–12 недель там, где традиционные студии называют сроки в два квартала.
У этого руководства есть три референс-проекта. BrainCert — это виртуальный класс-LMS на WebRTC с выручкой 225 млн ₽ и более чем 100 000 клиентов. Sprii — платформа live-video-шопинга, через интерактивные трансляции которой прошло более 365 млн € продаж. Worldcast Live доставляет HD-трансляции концертов с задержкой меньше секунды глобальной аудитории. Каждое архитектурное решение из этого материала мы хотя бы раз приняли в продакшене.
Оцениваете сборку real-time стриминга для большой аудитории?
Расскажите о целевой аудитории, бюджете задержки и модели контрибуции. Мы вернёмся с разбором гибридного стека WebRTC + LL-HLS + MoQ и моделью затрат.
Краткий ответ за 60 секунд
Нагрузку несут три протокола. WebRTC доставляет интерактивное видео с задержкой меньше секунды небольшой группе; его потолок — от 10 до 100 тысяч зрителей в зависимости от стека и бюджета. LL-HLS и MoQ доставляют миллионам через CDN с задержкой 1–3 секунды. Базовая архитектура для серьёзного продукта на 1 млн зрителей в 2026 году — гибридная: WebRTC-ингест на основе WHIP для ведущих и контрибьюторов, LL-HLS или MoQ как магистраль вещания, HLS на edge как fallback для длинного хвоста.
Магистраль выбирайте по бюджету задержки. Меньше секунды — MoQ там, где можно развернуть, иначе WebRTC. 1–3 секунды — LL-HLS. Задержка терпима выше — стандартный HLS или DASH, дешёвый и универсальный. Дальше в статье — математика, размеры кластеров и правила надёжности, стоящие за этой рекомендацией.
Эталонная архитектура для 100 тысяч–1 млн одновременных зрителей
Пять уровней. Контрибуция, ингест, упаковка, дистрибуция, монетизация. Стройте их как независимые слои с чистыми интерфейсами, чтобы можно было заменить один уровень, не переделывая остальные.

Рисунок 1. Эталонная пятиуровневая архитектура для прямых трансляций на 100 тысяч–1 млн одновременных зрителей.
Контрибуция
Ведущие, спикеры, контрибьюторы и полевые камеры. WebRTC через WHIP — современный путь ингеста: меньше 100 мс наверх, рукопожатие за один запрос, ICE из коробки. Дополните его SRT или RTMP для устаревших энкодеров.
Кодирование и упаковка
Небольшая интерактивная WebRTC-меш для ведущих; per-title энкодер, выдающий лестницу из нескольких рендишенов; пакетайзер, который делает дорожки LL-HLS и MoQ. Аппаратное ускорение (AWS VT1, NVENC, выделенные транскодеры) окупает себя примерно с 50 параллельных кодирований.
Дистрибуция
Мульти-CDN по умолчанию. AWS CloudFront, Cloudflare, Fastly и Akamai для уровня вещания. Заранее размещённые кэш-узлы в регионах, где будет основная аудитория. Репликация манифестов, чтобы 200 тысяч запросов в секунду не били в один origin.
Монетизация
DRM-токены (Widevine, PlayReady, FairPlay), выпускаемые на edge. SSAI для вставки рекламы по меткам SCTE-35 в исходном фиде. Эти позиции в смете часто пристёгивают в самом конце сборки — закладывайте их в первую неделю.
Control plane
Наблюдаемость по каждому уровню — доля попаданий в кэш манифестов, доля поздних сегментов, скорость выпуска DRM-токенов, P99-задержка glass-to-glass по регионам. Control plane — это разница между ночью на 99,9% и ночью на 99,99%.
Точки смены архитектуры: 10 тысяч, 100 тысяч, 1 млн, 10 млн
| Одновременных зрителей | Архитектура | Где ломается, если ошиблись |
|---|---|---|
| До 10 тысяч | Один LL-HLS-origin + CDN или одна SFU-меш | Без кэша манифестов одиночный origin насыщается около 50 тысяч запросов в секунду. |
| 10–100 тысяч | Каскадная SFU-меш + LL-HLS-гибрид; мультирегиональный CDN | Стоимость SFU за минуту обгоняет выручку; счета за TURN взрываются. |
| 100 тысяч–1 млн | CDN-первичная схема; WebRTC только на контрибуции; per-title кодирование; DRM; SSAI | Лавина запросов к origin манифестов; насыщение региональных горячих точек. |
| Свыше 1 млн | Мульти-CDN, предиктивный прогрев кэша, предиктивное переключение ингеста, traffic engineering | Непротестированные сценарии отказа; гонки в доступности сегментов. |
Переходите к CDN-первичной схеме, как только пиковый прогноз превышает 50 тысяч. Перепроектирование на 200 тысячах — это квартал, которого у вас на запуске нет.
WebRTC SFU при масштабировании: где ломается экономика
Один SFU-узел держит 500–2000 зрителей в зависимости от соотношения разрешений, числа симулкаст-слоёв и модели CPU. Современные стеки — LiveKit, MediaSoup, Janus, Pion — все попадают в эту полосу. Чтобы обслужить 100 тысяч одновременных, нужно 50–100 SFU-узлов в каскадной меш, плюс TURN-релеи для тех 10–20% зрителей, которые сидят за симметричным NAT.
Счета растут быстро. Управляемые сервисы (LiveKit Cloud, Daily, Twilio) берут 0,225–1,8 ₽ за минуту в зависимости от разрешения. На 100 тысячах одновременных в течение часа это порядка 1,3–10,8 млн ₽ только за минуты — до TURN, до хранения, до записи. Самостоятельные SFU-кластеры на масштабе дешевле, но добавляют операционную нагрузку, которую небольшие команды недооценивают.
Решающая цифра: выше 100 тысяч одновременных стоимость WebRTC SFU в пересчёте на зрителя в час превышает LL-HLS через CDN в 5–15 раз. Протокол по-прежнему выигрывает на низколатентной контрибуции, разговорных сегментах и интерактивных сценах с ограниченным числом участников — просто не для аудитории.
LL-HLS и DASH на масштабе CDN
Cloudflare Stream, Mux, Akamai, AWS Elemental + CloudFront и Bitmovin сегодня поддерживают Low-Latency HLS. Задержка glass-to-glass лежит в полосе 1–3 секунды на массовых CDN — достаточно близко к интерактиву для спорта, киберспорта, live-коммерции и концертов, где аудитория односторонняя. У стандартного HLS тоже есть своё место: 3–8 секунд, широкая совместимость, удобство для регуляторов.
Экономика — это экономика CDN: вы платите за egress 0,375–6,375 ₽ за гигабайт в зависимости от объёма и контракта. Прайс-листы 2025 года у гиперскейлеров крутятся около 3,75 ₽ за гигабайт, на согласованных коммитах часто вдвое меньше, а на бюджетных CDN (Bunny, KeyCDN) — от 0,75 до 3 ₽ за гигабайт. На 1 млн одновременных за час трансляции вы прокачиваете около 4,5 ПБ — примерно 16,8 млн ₽ по ставке 3,75 ₽ за гигабайт, и меньше на серьёзном коммите.
Берите LL-HLS первым выбором, когда: аудитория терпит 1–3 секунды задержки и нужна максимальная совместимость с браузерами, приложениями и SmartTV сегодня — это покрывает около 95% продуктов one-to-many стриминга.
Где MoQ вписывается в стек на 1 млн зрителей
Media over QUIC — это протокол, который закрывает разрыв в 1–3 секунды у LL-HLS. WINK Streaming и Cloudflare крутят продакшен MoQ с задержкой 200–300 мс glass-to-glass. WebTransport вошёл в Web Platform Baseline в марте 2026 года, так что все основные браузеры играют MoQ без флагов. Подробно протокол мы разбирали в материале о приложениях на Media over QUIC.
Для продуктов на 1 млн зрителей MoQ — это субсекундная альтернатива LL-HLS со схожей экономикой CDN. Он уже готов к продакшену для one-to-many дистрибуции в архитектурах, которые выкатили Cloudflare, nanocosmos и WINK. Интеграция с премиум-DRM, соответствие FCC-подобному вещательному регулированию и серверный ABR пока дозревают — если что-то из этого нужно, запускайте MoQ как низколатентную полосу рядом с LL-HLS, а легаси-полосу под регуляторы держите отдельно.
Сколько на самом деле стоит 1 млн одновременных за час
| Компонент | Драйвер | Диапазон (₽) |
|---|---|---|
| CDN egress | ~4,5 ПБ по 1,5–3,75 ₽ за гигабайт | 6,7–16,8 млн ₽ |
| Per-title кодирование и упаковка | Лестница из 8 рендишенов с аппаратным ускорением | 600 тыс.–1,5 млн ₽ |
| WebRTC SFU-кластер (контрибуция + интерактив) | Ограниченная меш ведущих + небольшая аудитория | 375 тыс.–2,2 млн ₽ |
| Origin / ингест | Резервный ингест, инжекция меток SCTE-35 | 375 тыс.–1,1 млн ₽ |
| DRM | Выпуск токенов на edge, мультивендорный DRM | 75 тыс.–375 тыс. ₽ |
| SSAI / сшивка рекламы | Решение и сшивка под каждый показ | 150 тыс.–750 тыс. ₽ |
| Инжиниринг и дежурство | Штаб поддержки на время мероприятия | 750 тыс.–3 млн ₽ |
Итого на одно мероприятие: примерно 9–25,8 млн ₽ для настоящего 1 млн одновременных. Большинство команд укладываются в 3,7–11,2 млн ₽, потому что в первый день до 1 млн так и не доходит. Правильный план — спроектировать стек так, чтобы архитектура между 100 тысячами и 1 млн не менялась — меняется только мощность.
Хотите модель затрат на ваших цифрах?
Пришлите пиковую аудиторию, лестницу битрейтов и целевую задержку. Мы посчитаем CDN egress, транскодирование, DRM и SSAI.
Планирование мощностей: кластеры, регионы, запас
Размер SFU. 500–2000 зрителей на узел. Закладывайте 65% утилизации на пике, чтобы региональный сценарий отказа не превратился в каскад. Для 100 тысяч одновременных на стороне контрибуции это 50–100 узлов плюс 50% буфера.
Размер edge-кэша. На масштабе доминируют запросы к манифестам. При сегментах раз в 5 секунд и 1 млн зрителей вы получаете порядка 200 тысяч запросов к манифестам в секунду. Ставьте TTL манифеста 30 секунд, реплицируйте по регионам и инвалидируйте по версии при перевыпуске.
Региональное распределение. Размещайте ингест в ближайшем к вещателю регионе (Нью-Йорк, Франкфурт, Токио). Поднимайте edge-узлы CDN в регионах, где будет основная аудитория. Для US-prime спорта это East-1 + East-2 + Central + West с горячо-тёплым предразмещением.
Размер TURN. 10–20% WebRTC-зрителей будут нуждаться в TURN-релее. На 100 тысячах одновременных контрибьюторов закладывайте 10–20 тысяч ретранслируемых пиров по 1 Мбит/с каждый. Полоса реальная, счёт реальный.
Надёжность на масштабе: четыре режима отказа, которые кусаются
1. Лавина запросов к манифесту. 1 млн клиентов перезапрашивает манифест каждые несколько секунд. Без защиты origin получает всплеск 50–200 тысяч запросов в секунду. Митигация: TTL кэша 30 секунд, репликация по регионам, инвалидация при перевыпуске, никогда не отдавать манифест с origin без CDN перед ним.
2. Насыщение региональной горячей точки. 40% зрителей US-prime придут в один и тот же восточно-побережный POP. Прогревайте региональный кэш первыми сегментами до начала мероприятия; направляйте перелив осознанно.
3. Отказ пути ингеста. Аплинк вещателя падает, RTMP отваливается по таймауту, энкодер уходит в синий экран. Без проверенного второго пути ингеста рушится всё мероприятие. Митигация: двойной WHIP-ингест с автоматическим переключением, резервные энкодеры, мониторинг heartbeat’ов.
4. Гонка доступности сегмента. Энкодер заканчивает сегмент в t=2,5 с; клиенты запрашивают в t=2,0 с; CDN отвечает 404 и провоцирует штормы повторов. Митигация: предиктивная генерация сегментов, щедрые grace-окна на сегментах, дружелюбные к 503 повторы на стороне плеера.
Запускайте репетицию под полной нагрузкой, когда: мероприятие важное и аудитория превышает 100 тысяч. Непротестированное переключение — самая дорогая позиция в смете.
Лестница кодирования, выбор кодека и аппаратное ускорение
Типичная лестница 2026 года — 8 рендишенов от 144p до 2160p, кодируется по одному на источник и отдаётся через ABR. На масштабе 1 млн выбор кодека имеет значение.
| Кодек | Битрейт относительно H.264 | Аппаратный энкод (live) | Когда использовать |
|---|---|---|---|
| H.264 | База | Универсально: NVENC, Apple, VT1 | Максимальная совместимость, широкая аудитория. |
| H.265 / HEVC | Примерно на 30% ниже | Доступен повсеместно | Премиум-аудитория с современными устройствами. |
| AV1 | Примерно на 40–50% ниже | Live HW ограничен; развивается | VOD сегодня; live в 2026–2027 по мере появления чипов. |
Для большинства сборок 2026 года поставляйте H.264 по всей лестнице и добавляйте HEVC для премиум-устройств. AV1 в live технически возможен — YouTube использует его для более чем 75% VOD — но история с аппаратным live-энкодом ещё только разворачивается.
DRM и SSAI на масштабе
DRM-токены. Мультивендорный DRM (Widevine, PlayReady, FairPlay) для лицензированного спорта и кино обязателен. Выпускайте токены на edge, чтобы всплеск на старте мероприятия не клал единственный токен-сервис. Закладывайте всплеск в 5–10 раз выше базовой нагрузки на нулевой минуте.
SSAI. Серверная вставка рекламы по меткам SCTE-35 в исходном фиде — доминирующий шаблон для live. Сложность — в покадрово точной синхронизации тайминга рекламы по всей лестнице битрейтов: рассогласованные метки между рендишенами вызывают чёрные кадры или пропущенные ролики.
Мини-кейс: Sprii — интерактивный live-шопинг на масштабе
Ситуация. Платформе live-шопинга нужно было субсекундное видео для ведущего на сцене и broadcast-класс доставки покупательской аудитории, которая в пиковые кампании растёт на порядок — одновременно с платёжными потоками, удержанием товара и вставкой рекламы.
Что мы построили. Гибридный стек: WebRTC-меш для ведущих и приглашённых контрибьюторов с WHIP-ингестом, уровень вещания LL-HLS на мульти-CDN egress, выпуск edge-токенов для авторизации покупок и предиктивное предразмещение кэша перед стартами кампаний. Мы инструментировали долю попаданий в кэш манифестов, P99 glass-to-glass и сквозную воронку покупки в виде единого live-дашборда.
Результат. За время работы платформа провела через свои live-трансляции более 365 млн € продаж. Архитектура держит всплески от нескольких тысяч одновременных в обычные часы до пиков крупных кампаний без перепроектирования.
Фреймворк принятия решения: выбираем магистраль за пять вопросов
1. Каков пик аудитории? До 10 тысяч — LL-HLS + CDN; свыше 100 тысяч — CDN-первичная схема, WebRTC только на контрибуции.
2. Каков бюджет задержки? Меньше секунды — MoQ там, где можно развернуть, иначе WebRTC. 1–3 секунды — LL-HLS. Терпимо больше — стандартный HLS.
3. Аудитория интерактивная или односторонняя? Интерактивная — небольшая WebRTC-меш; односторонняя — CDN-магистраль.
4. Какое лицензирование действует? Премиум-контент с DRM или регулируемое вещание — LL-HLS + SSAI — проверенный путь; MoQ оставьте для свободного live.
5. Сколько у вас инжиниринга? Команда из двух пицц — управляемый CDN + LL-HLS. Команды побольше с дежурствами — мульти-CDN с предиктивным прогревом кэша.
Пять ловушек, в которые попадают команды
1. Подгонка SFU под аудиторию. WebRTC SFU — для контрибуции и небольших интерактивных панелей. После 10 тысяч зрителей маршрутизируйте через CDN.
2. Зависимость от одного CDN. Один инцидент у одного CDN роняет всё мероприятие. Мульти-CDN с переключением на лету необходим выше 100 тысяч.
3. Пропуск нагрузочной репетиции. Планирование мощностей на бумаге — это не мощности. Прогоните синтетический нагрузочный тест с коэффициентом 1,2× на боевом стеке за неделю до события.
4. Игнорирование всплесков DRM-токенов. 1 млн зрителей, бьющих в endpoint выпуска токенов на нулевой минуте, — это случайный DDoS. Edge-выпуск и планирование с учётом всплесков лечат проблему.
5. Отношение к SSAI как к второстепенной задаче. Тайминг рекламы по лестнице битрейтов — самая частая причина, по которой реклама уходит в тишину или в чёрный кадр. Проверяйте покадровую обработку меток до запуска.
Берите мульти-CDN egress, когда: аудитория — источник дохода, мероприятие одноразовое, а цена пятиминутного простоя выше цены второго контракта. Это большинство продакшен-трансляций выше 100 тысяч.
Какие KPI измерять
KPI качества. P50 и P99 задержки glass-to-glass по регионам. Доля ребуферизации (цель — ниже 0,5%). Доля попаданий в кэш манифестов (цель — выше 99%).
Бизнес-KPI. Стоимость одного зрителя в час со всеми расходами. Пик аудитории и устойчивая одновременность по 90-му процентилю. Доля жалоб на сбои на 100 тысяч зритель-часов.
KPI надёжности. Соответствие SLA по uptime (цель — 99,99%). MTTR после переключения ингеста. Доля успешных выпусков DRM-токенов на нулевой минуте.
Когда НЕ нужно проектировать под 1 млн одновременных
Большинство продуктов никогда не увидят 1 млн одновременных. Закладывать это с первого дня — отличный способ потратить два квартала на мощность, которая вам не нужна. Стройте под имеющуюся аудиторию плюс 5-кратный запас; проектируйте архитектуру так, чтобы переход от 100 тысяч к 1 млн означал больше мощности, а не другой стек.
Есть исключение. Если запуск привязан к известному событию — финал чемпионата, глобальная презентация продукта, концерт известной звезды — считайте первое мероприятие архитектурной целью и репетируйте сценарии переключения. Цена недоинженеренного запуска — дни возвратов и заголовков.
Нужны эталонная архитектура и план нагрузочной репетиции?
Мы поставляем рабочий гибридный пилот — WebRTC-контрибуция, LL-HLS-вещание, мульти-CDN egress, наблюдаемость — за 8–12 недель. Принесите целевую аудиторию.
FAQ
Можно ли масштабировать WebRTC до 1 млн одновременных зрителей?
Экономически — нет. Каскадные SFU-меши способны выйти на сотни тысяч, но стоимость в пересчёте на зрителя в час на этом масштабе превышает LL-HLS через CDN в 5–15 раз. Правильный шаблон — WebRTC для контрибуции и небольших интерактивных сегментов, LL-HLS или MoQ как магистраль вещания.
Какую задержку даст LL-HLS или MoQ на масштабе 1 млн?
LL-HLS укладывается в 1–3 секунды glass-to-glass на массовых CDN. Продакшен-развёртывания MoQ (Cloudflare, WINK) выходят на 200–300 мс. Оба масштабируются до миллионов одновременных зрителей с одинаковой экономикой egress; MoQ — низколатентная полоса там, где это допускает зрелость продакшена.
Сколько на самом деле стоит 1 млн одновременных?
Около 9–25,8 млн ₽ за часовое мероприятие — в зависимости от условий контракта с CDN, набора кодеков, DRM, SSAI и состава дежурной смены. Большая часть (60–80%) — это CDN egress. Согласованные коммиты и стратегии мульти-CDN заметно сдвигают счёт.
Брать управляемый сервис или строить своё?
До 100 тысяч одновременных управляемые сервисы (Cloudflare Stream, Mux, AWS Elemental) поставляются быстрее и в эксплуатации дешевле. Выше 100 тысяч с регулярными мероприятиями обычно лучше гибрид: вы контролируете упаковку и origin, а мощность CDN арендуете. Чистое DIY на мультимиллионном масштабе — это плейбук YouTube/Netflix и требует выделенной платформенной команды.
Как избежать сценария Netflix Тайсон–Пол?
Репетируйте переключение под полной синтетической нагрузкой. Добавьте мульти-CDN с traffic engineering. Агрессивно кэшируйте манифесты на edge. Прогревайте региональные кэши до начала мероприятия. Мониторьте долю попаданий в кэш манифестов и доступность сегментов в реальном времени с эскалацией дежурной смены по порогам. Ничего экзотического здесь нет; всё это нужно протестировать до прихода аудитории.
Когда выбирать MoQ вместо LL-HLS?
Когда нужна полоса задержки 200–300 мс и аудитория может играть через WebTransport (браузеры с марта 2026 года в Baseline) или нативный QUIC. LL-HLS по-прежнему выигрывает для совместимости с легаси SmartTV/STB, FCC-подобного регулируемого вещания и тяжёлого DRM-премиум контента в 2026 году.
Сколько занимает работа с Фора Софт по масштабированию?
Рабочий гибридный пилот — WebRTC-контрибуция, LL-HLS-магистраль вещания, мульти-CDN egress, мониторинг — собирается за 8–12 недель через спецификационно-агентную инженерию. Полный продакшен-выкат с DRM, SSAI, мультирегиональным переключением и нагрузочной репетицией обычно укладывается в 12–20 недель.
Что насчёт цены за гигабайт на гиперскейле — 3,75 ₽ — правильная цифра?
Прайс-листы AWS CloudFront, Fastly и Akamai в 2025–2026 годах находятся в районе 3–6,3 ₽ за гигабайт в зависимости от объёма. Согласованные коммиты на масштабе регулярно сдвигают это к 0,75–2,2 ₽ за гигабайт. Бюджетные CDN (Bunny, KeyCDN) держат прайс 0,75–3 ₽ за гигабайт. Используйте 3,75 ₽ за гигабайт для оценок на салфетке; рассчитывайте, что коммит заметно опустит цифру.
Что почитать дальше
Подробно про MoQ
Создание приложений на Media over QUIC
Архитектура, задержка, расходы и плейбук гибридной миграции для live-медиа.
Компромиссы WebRTC
WebRTC vs Agora: архитектурные компромиссы
Build vs buy для контрибьюторской стороны live-стека.
Найм
Нанять компанию-разработчика WebRTC vs строить in-house
Гид покупателя для основателей продуктов стриминга и real-time видео.
Build vs buy
Кастомная разработка на Wowza в 2026 году
Анализ build-vs-buy для платформ низколатентного стриминга.
Инженерные практики
Real-time обработка видео с AI
Архитектурные шаблоны и бюджеты задержки из 625+ выпущенных видеопроектов.
Готовы проектировать под аудиторию в 1 млн зрителей?
Протоколы понятны. Сложное — это координация, переключение и дисциплина по расходам. Стройте гибрид — WebRTC для контрибуции, LL-HLS или MoQ для дистрибуции, HLS для длинного хвоста, — честно подбирайте размер каждого уровня, репетируйте режимы отказа под нагрузкой и инструментируйте control plane так, чтобы вы находили проблему раньше аудитории.
Если вы прорабатываете стриминговый продукт с аудиторией в шесть или семь знаков, выбор технологий общий. Архитектура должна лечь под кривую вашей аудитории, бюджет задержки и модель монетизации. Это и есть тот разговор, который мы ведём с потенциальными клиентами: принесите ограничения — уйдёте с архитектурой, моделью затрат и оценкой сроков.
Поговорите с командой, которая выпустила 600+ видеопродуктов
WebRTC, LL-HLS, MoQ, мульти-CDN, DRM, SSAI — мы знаем, какой инструмент под какую задачу и под какой масштаб. Принесите кейс — мы принесём архитектуру и оценку сроков.

