LLMOps в Альфа-Банке: вызовы и практические решения

GenAI и большие языковые модели (LLM)

Программный комитет ещё не принял решения по этому докладу

Целевая аудитория

Тимлиды, техлиды и инженерные руководители, которые проектируют и эксплуатируют платформы LLM или встраивают модели в продукты компании

Тезисы

В докладе на конкретном примере будет показано, как в enterprise‑среде организована платформа GenAI в Альфа‑Банке: от GPU‑кластера до инференса моделей.
Будут разобраны:
Архитектура GPU‑платформы и особенности кросс‑функционального кластера (on‑prem и облако, утилизация ресурсов).
Подход к сокращению «зоопарка» моделей: критерии отбора, единый каталог и политика жизненного цикла моделей.
Бенчмаркинг: методология расчета метрик, составление dataset, тестирование и выбор оптимальной конфигурации под продуктовые сценарии.
Организация инференса: стек сервинга, маршрутизация запросов, observability и контроль стоимости токена.

TBD

Видео

Другие доклады секции

GenAI и большие языковые модели (LLM)