Перейти к содержимому

Биллинг: практический уровень

Эта страница для команды, которой нужно не только понимать модель, но и управлять стоимостью в продакшене.

  • invocations, cpu_seconds, memory_gb_seconds, residency_seconds
  • Если используете: streaming_seconds, websocket_seconds
  • invocations, cpu_seconds, memory_gb_seconds, subrequests
  • egress_gb, storage_gb_month, image_transforms, origin_fetch_gb
  • cu_hours, storage_gb, data_transfer_gb, extra_databases, extra_branches

Смотрите не только абсолютные значения, но и скорость роста по дням.

ДрайверЧто увеличивает расходЧто помогает
invocationsлишние фоновые вызовы, дубли запросовкэш, дедупликация, rate limiting
cpu_secondsтяжёлые вычисления на запросprecompute, профилирование hot-path
memory_gb_secondsбольшие объекты и долгие операцииуменьшение рабочей выборки, потоковая обработка
residency_secondsизбыточное удержание экземпляровidle-таймауты, авто-пауза
streaming_secondsдолгие стримысокращение сессий, раннее завершение
ДрайверЧто увеличивает расходЧто помогает
invocationsвысокая частота edge-запросовкэширование, ISR
cpu_secondsтяжёлая логика в isolateвынос вычислений в Compute
memory_gb_secondsвысокий configured memory limitуменьшение лимита памяти в настройках
subrequestsмассовые KV/fetch операциибатчинг, кэширование ответов
ДрайверЧто увеличивает расходЧто помогает
egress_gbбольшие файлы, высокий трафиксжатие, CDN-кэш
storage_gb_monthкрупные артефакты деплояочистка старых деплоев, оптимизация бандлов
image_transformsмного вариантов изображенийфиксированные breakpoints, pregeneration
origin_fetch_gbчастые cache missувеличение TTL, stale-while-revalidate
ДрайверЧто увеличивает расходЧто помогает
cu_hoursдолгие транзакции, большой CU size, постоянные соединенияconnection pooling, auto-suspend, меньший CU
storage_gbнакопление данных, раздутый WALVACUUM, партиционирование, архивирование
data_transfer_gbSELECT * без лимитов, тяжёлые JOINпагинация, проекция колонок, кэширование
  1. Зафиксируйте бюджет и лимиты на месяц.
  2. Настройте предупреждения на 50%, 80% и 100% бюджета.
  3. Ежедневно проверяйте тренды по ключевым метрикам каждого используемого слоя.
  4. При всплеске определите, какой слой и какая метрика дала основной вклад.
  5. Разберите по проектам, окружениям и релизам.
  6. После оптимизаций сверяйте эффект на 7-дневном окне.
  1. Определите, какой слой показывает аномалию
  2. Внутри слоя найдите метрику с наибольшим ростом
  3. Сопоставьте с релизами, миграциями и маркетинговыми кампаниями
  4. Проверьте burst-активность и повторные вызовы
  5. Если рост необъясним, передайте период и разрезы в поддержку

Платформа автоматически детектирует аномалии по каждому слою:

  • Velocity spike — текущее значение метрики выросло более чем в 10 раз за последний час
  • Jump anomaly — текущее значение метрики превышает 7-дневную медиану более чем в 5 раз

При срабатывании вы получаете уведомление с указанием конкретного слоя и метрики.

Hard Cap ограничивает максимальные overage-расходы за период.

  • До порога сервис работает штатно
  • На пороге срабатывает защитный режим (ограничения ресурсоёмких операций)
  • После пересечения порога нужен следующий расчётный период или ручная корректировка