Внедрение ИИ в жизненный цикл

О стриме развития

Стримы развития — это срежиссированные тематические маршруты по конференции

Программа стрима

Всё необходимое для глубокого погружения в тему

22 июня, 10:00 - 12:00, Зал Зелёный

💻 Воркшоп-хакатон «Вайбкодим и запускаем крипторубль за час»

(!) Для интерактивного участия требуется наличие ноутбука с софтом для вайбкодинга.

Цель этого воркшопа-хакатона, продемонстрировать как выглядит процедура разработки и запуска собственного криптоактива в реальные сети. Мы реализуем собственный криптоактив в коде, развернем контракты в реальном блокчейне, проведем платежные транзакции, а также покажем как могут быть имплементированы требования регулятора.

Средства ИИ разработки позволят нам не тратить время на boilerpalte-ы для Solidity, Python, JS и сосредоточиться на демострации работы различных видов сервисов, оперирующих криптоактивами.

Сергей Прилуцкий

Сергей Прилуцкий

MixBytes

22 июня, 10:00 - 12:00, Зал Башня

💻 Воркшоп: «Построение AI-агента: Говори с данными на языке бизнеса»

Аналитики тратят часы на SQL-запросы, которые «почти как в прошлый раз, но не совсем». Каждая BI-система — свой синтаксис, каждый дашборд — ручная работа, каждая выгрузка — снова с нуля. Знакомо?

А что если просто написать: «Посчитай MAU и выручку по тарифам с 2025 года» — и получить готовый интерактивный график через 30 секунд?

Воркшоп построен по слоям. Сначала поднимаем рабочую среду и снимаем главную боль: агент читает схему вашей БД, историю запросов и отвечает на бизнес-вопросы на человеческом языке — без SQL вручную.

Но дальше интереснее. По ходу воркшопа будем намеренно сталкиваться с реальными проблемами: агент перегружает продовую базу — решаем. Агент путает имена таблиц и полей — решаем. Каждый слой добавляет надёжности, пока в финале не получим полноценное, защищённое AI-рабочее место продуктового аналитика, готовое к enterprise.

OpenCode — MIT open source, работает в терминале, без IDE и регистраций. Поддерживает 75+ провайдеров: Claude, GPT, Gemini и локальные модели через Ollama — данные не покидают вашу инфраструктуру.

Что заберёте с собой: - Поднятый рабочий стек с AI-агентом, настроенным под аналитику - Готовый AGENTS.md и понимание, как масштабировать решение в команде - Навык итеративного построения AI-инструментов: от прототипа до продакшена

Что сможете вписать в резюме: - Опыт построения AI-агентов для аналитики данных - Работа с OpenCode, ClickHouse, Redash, MCP в связке - Внедрение LLM-инструментов в data-процессы с учётом enterprise-требований

Барышев Сергей

Барышев Сергей

ON Медиа (KION/MWS/МТС)

Алексей Жиряков

Алексей Жиряков

MTС Web Services (KION, MWS)

22 июня, 10:00 - 12:00, Зал Синий

💻 Воркшоп: «Гонка на скорость: человек против генеративного ИИ в Хранилище данных»

  • Человек vs ИИ в хранилище данных — проверим вместе с вами, кто быстрее на реальных задачах
  • Вместе с ИИ и без него: напишем SQL-код, построим data lineage, определим на что влияет атрибут таблицы, по коду "восстановим" постановку задачи, и как итог - починим "сломавшийся" отчет
  • Поймем, где ИИ уже выигрывает :)
  • А где все-таки без человека еще никак?
  • Расскажем про реальные практические кейсы использования ИИ в Хранилищах данных на наших проектах
  • Покажем метрики, которые мы замеряли: экономия рабочего дня в целом и экономия на отдельных задачах
  • Поговорим про будущее хранилищ данных: кто все-таки выигрывает эту гонку - человек или машина, какой уровень автономности хранилищ нас ждет
Татьяна Сеземина

Татьяна Сеземина

ИТ-холдинг Т1

Виктор Парфенов

Виктор Парфенов

ИТ-холдинг Т1

Александр

Александр

ИТ-холдинг Т1

22 июня, 12:20 - 14:20, Зал Розовый

💻 Воркшоп: «Смотри, как думает агент: Observability AI-агентов с Langfuse»

AI-агенты в продакшене — это больше не эксперимент, а критичная инфраструктура. Но как понять, правильно ли агент отвечает, где и почему он «галлюцинирует» и во сколько реально обходится его использование?

На воркшопе мы разберём Langfuse — open source инструмент наблюдаемости для AI-приложений. Покажем, как организовать централизованный мониторинг ИИ-агентов и прямо на месте сделаем демо-агента наблюдаемым. Участники научатся трассировать вызовы LLM, собирать метрики, оценивать качество ответов и выполнять диагностику агентов так же, как и обычных продовых сервисов и приложений. Минимум слайдов, максимум практики: реальный агент, реальный прод-подход и живое инструментирование вместе с аудиторией.

Важно! Для участия в данном формате с собой необходимо иметь ноутбук. Код для воркшопа и требования к подготовке по ссылке: https://github.com/bocharovf/langfuse-workshop

Филипп Бочаров

Филипп Бочаров

МТС Web Services (MWS)

Дмитрий Лобач

Дмитрий Лобач

МТС Web Services (MWS)

22 июня, 12:20 - 13:10, Зал Красный

Model Merging. Как объединить знания нескольких LLM в одну.

В эпоху активного развития больших языковых моделей перед разработчиками часто встает дилемма: как совместить преимущества нескольких специализированных моделей, обученных на разных задачах, не запуская при этом множество моделей одновременно? В докладе мы рассмотрим актуальную проблему объединения параметров языковых моделей (model merging) и познакомимся с существующими подходами: от простого усреднения весов до методов LoRA merging и Task Arithmetic. Вы узнаете, почему традиционные методы часто приводят к деградации качества и как можно это исправить.

Мы представим новый метод Significant Deltas Merging with Weights (SDM-W), который позволяет интеллектуально объединять модели, учитывая только значимые изменения параметров и автоматически определяя вклад каждой модели. На практических примерах покажем, как метод помогает создать универсальную модель, которая одинаково хорошо справляется с генерацией кода, вызовом тулов и корпоративными задачами. Результаты экспериментов демонстрируют сохранение 95-98% точности при экономии до 30% вычислительных ресурсов.

Даниил Смирнов

Даниил Смирнов

Сбер

22 июня, 12:20 - 13:10, Зал Зелёный

AI-команда будущего: как меняется разработка продуктов и какие навыки нам нужны

Две части: первая сильно техническая (как устроено) - минут на 25, вторая перетекает из первой - как с этим жить - на оставшиеся 15


-- Первая часть

Ключевой тейк технической части: AI-инструменты очень специфичны и "просто дать" их разработке может приводить к тому что, что две одинаковые команды перформят по разному: у одних все летит и радует, другие упираются в лимиты и переписывания по кругу.

  1. Что под капотом: весь низкоуровневый флоу того, что происходит после команды "сделай мне фичу Х"

    • Контекстное окно и харнесс
    • Токенизатор и его особенности работы с кодом
    • Проблемы контекстного окна, компактизация
  2. Поиск кода: поиск, сигналы и документация

    • векторный поиск против разновидностей grep, плюсы и минусы подходов
    • high-signal tokens как философия ретрива
    • культура документации и сложности
  3. Экономика: где горит бюджет

    • cache-hit и ttl
    • План/реакт и effort
    • cost per call / per outcome
  4. Код как дашборд

    • Какая телеметрия появилась
    • acceptance vs revert
    • silent drift & regression set

-- Вторая часть: Ключевой тейк: изменение скорости написания кода требует переосмысления SDLC целиком, а не просто одной части.

1) Что происходит со структурой команды — стафф-лок тает (когда знание про то как работает Х у одного-двух человек) — специализации размываются (T-shape становится шире, вертикаль мельче) — численность команд падает

2) Как меняется культура работы и процессы - толерантность к перетурбациям инструментво (новый софт скилл) - изменение роли код-ревью - дисциплина эвалов становится общей на разработку вместо только ML

3) Новые боттлнеки и роли людей - что становится узким местом - как меняется иерархия в команде

Финальный вывод о том что инструменты становятся не просто инструментами - они меняют весь процесс и требуют его переосмысления

Дмитрий Антипов

Дмитрий Антипов

Сбер/АБТ

22 июня, 12:20 - 13:10, Зал Синий

LLM Performance Playbook: как выбрать модель и конфигурацию сервинга на основе воспроизводимых тестов

LLM в продакшене - это не только качество ответов, но и управляемая производительность под реальной нагрузкой. В self-hosted сценариях на итог влияет много факторов: от выбранного движка до объёма памяти. В докладе я покажу, как мы в Магните построили воспроизводимый пайплайн нагрузочного тестирования для выбора подходящей LLM и настройки конфигов сервинга - с упором на возможность повторить это на своём железе. Мы разберём, как организовать нагрузочные тесты на Locust для корректного измерения TTFT/ITL/TPS, находить порог стабильности и избежать искажения результатов из-за упрощённых условий тестирования. Отдельно продемонстрирую, какие сигналы в observability помогают объяснять деградации и подтверждать эффект изменений.

Антон Удалов

Антон Удалов

MAGNIT TECH

22 июня, 13:30 - 14:20, Зал Зелёный

Context is a must: как мы системно управляем контекстом

AI-агенты в enterprise без контекста — дорогие игрушки. Мы в Райффайзенбанке построили две платформы — Context Annotation (разметка бизнес- и технического контекста организации) и Context Memory (персистентная память агентов о клиенте) — которые дают агентам связное представление "модели мира" организации и клиента. Расскажу, как мы пришли к этой архитектуре, какие грабли собрали и какие результаты получили на трёх кредитных продуктах.

Андрей Неведин

Андрей Неведин

Райффайзенбанк

22 июня, 13:30 - 14:20, Зал Синий

Опыт перехода от maas к selfhosted/on premise моделям: проблемы, боли, решения

В докладе поделимся практическим опытом переезда высоконагруженных AI-сценариев с вендорских моделей как услуги (MaaS) на локальные (on-premise) LLM, STT и эмбеддинги. Расскажем про реальные инженерные проблемы такого перехода: от ограничений контекстного окна и ресурсоемкости его обработки до деградации скорости инференса на фреймворках вроде vLLM и сложностей балансировки разноплановой нагрузки. Развенчаем популярные мифы о хостинге моделей и дадим конкретные инсайты, основанные на эксплуатации ансамбля моделей, обрабатывающего миллионы запросов в месяц.

Сергей Нотевский

Сергей Нотевский

Битрикс24

22 июня, 13:30 - 14:20, Зал Красный

Как построить text2sql с нуля и собрать (почти) все шишки

Как перевести естественный вопрос в SQL код и начать внедрять эту систему в бизнес процессы. Как с нуля построить персонализированную агентскую систему для словесного общения с базами данных, построением графиков по запросу и лаконичными выводами.

Никита Круглов

Никита Круглов

Альфа-Банк

23 июня, 10:00 - 10:50, Зал Зелёный

AI Flow вместо хаоса: практическая методология построения мультиагентных систем

Внедрение искусственного интеллекта в корпоративные процессы часто превращается в хаос: непредсказуемые ответы, "галлюцинации" и бесконечные циклы переписки между агентами. Мы прошли путь от восторженного хайпа до суровой инженерной реальности и создали методологию AI Flow, которая превращает "магию" нейросетей в надежный конвейер обработки данных. В докладе я расскажу, как обуздать анархию автономных агентов с помощью строгой оркестрации, контрактов и декомпозиции задач. Мы разберем архитектурные паттерны, позволяющие внедрять LLM в критические бизнес-процессы с гарантированным качеством. На реальном кейсе виртуального DPO-ассистента для разметки конфиденциальных данных я покажу, как мы добились автоматизации 80% рутины с уровнем ошибок менее 1% (False Negative). Вы узнаете, когда стоит отказаться от Agentic AI в пользу детерминированных AI Flow и как правильно измерять эффективность таких систем.

Дмитриев Игорь Николаевич

Дмитриев Игорь Николаевич

Wildberiies & Russ

Форматы

Краткий гид по форматам в программе

Доклад / лекция

Классический рассказ в лекционном формате.

Мастер-классы

Практика, в рамках которой докладчик шаг за шагом показывает решение рабочей задачи или обучающий кейс, а участники слушают и, возможно, выполняют задания самостоятельно или в командах.

Блиц-доклады (Lightning talks)

Короткие доклады до 20 минут — отдельные или объединенные общей темой.

Круглые столы

Несколько экспертов обсуждают острую тему со сцены. Остальные наблюдают. Любой из зала может задать вопрос или предложить решение, если хочет внести вклад.

Групповая работа

Мы делим участников на несколько тематических групп.

У каждой группы своя подтема (что именно аргументировать, кому именно аргументировать - разделённые по какому-то принципу). Группы обсуждают, может быть играют в имитационную игру, где пробуют свои аргументы в бою, затем кто-то от каждой группы делает доклад на 10 минут уже для всей аудитории. В конце выбираем самую полезную группу.

Панельная дискуссия

Это сессия ответов на наиболее интересные в секции вопросы от представителей разных отраслей и компаний. Честно, аргументированно и "без купюр".