Доклады конференции Saint HighLoad++ 2026

Доклады

Архитектура и масштабируемость (9)

Вынос функционала из монолита

Алексей Лосев

Wildberries & Russ

Бывает, что "распилить" монолит не хватает времени и ресурсов. Но есть критичный функционал, который необходимо вынести. В рамках мастер-класса решим задачу выноса сервиса мастер-баланса из монолитной банковской системы. По ходу, как всегда, изобретем несколько паттернов, обсудим плюсы и минусы различных технологических решений, погрузимся в особенности работы баз данных и шардирование.

Доклад принят в программу конференции

(En) Architecture of a Instant Payment System (by Brazil)

Бэкенд
Архитектуры, теория программирования
Pablo Aguilar

QuintoAndar

This talk is highly applicable to backend engineers, SREs, and architects working with high-concurrency APIs, microservices, or Fintech stacks. By using Pix as a concrete, battle-tested case study, you will walk away with proven strategies for enforcing latency as a hard design constraint, applying heavy cryptography (mTLS, XML envelope signatures), and protecting your core infrastructure from cascading failures or internal DDoS vectors.

Доклад принят в программу конференции

Как жить без строгой консистентности и не терять деньги

Микросервисы, SOA
Архитектурные паттерны

Фундаментальный доклад, из которого вы узнаете (или вспомните), что такое CAP и PACELC, зачем нужны Saga и 2PC. А также на реальных примерах увидите, как выбор между консистентностью, доступностью и задержкой осуществляется не на уровне системы в целом, а на уровне отдельных шагов бизнес-операций.

Доклад принят в программу конференции

Осознанное равновесие, или как научить сеть адаптироваться к потребностям приложений

Архитектуры / другое
Другое
Метрики
Инструменты
Павел Михайлик

Инфосистемы Джет

Мы расскажем о том, как научить слой публикации приложений говорить на сетевом языке и как это помогает решить задачу адаптивного балансирования нагрузки между ЦОД с исключением ручного вмешательства

Доклад принят в программу конференции

DeepSeek и Qwen в enterprise-контуре: строим надежный AI Flow для классификации чувствительных данных

Защита информации
Архитектурные паттерны
Архитектура данных, потоки данных, версионирование
Безопасность
Типовые ошибки
Методологии

Внедрение LLM в корпоративные процессы управления данными (Data Governance) часто превращается в хаос: непредсказуемые ответы, галлюцинации моделей и абсолютная невозможность выпустить такое решение в прод из-за жестких требований информационной безопасности (ИБ).

Мы прошли путь от ручного тегирования данных до создания методологии AI Flow, которая превращает вероятностную «магию» нейросетей в предсказуемый и надежный конвейер обогащения метаданных. В докладе я расскажу: - Как мы ушли от ненадежных автономных агентов («Agentic AI») к детерминированным цепочкам задач (AI Flow) со строгими типизированными контрактами на стыках. - Как "научить" локальные модели решать задачи Data Governance и сравним их производительность и точность с Gemini. - Почему подходы, работающие на тяжелых облачных моделях, не работают на локальных LLM. - Разберем архитектуру системы автоматической классификации чувствительных данных - DPO-copilot.

Доклад принят в программу конференции

Как организовать сетевую связность bare-metal Kubernetes

Сетевое администрирование
DevOps / Кубер
Железо
Инфраструктура

Расскажу какие есть варианты построение сетевой связности для bare-metal узла Kubernetes через BGP или L2 связность.

Доклад принят в программу конференции

Зачем вашему фаерволу турбонаддув?

Применение технологии FPGA в продуктах компании UserGate. Для чего мы используем аппаратное ускорение, какие преимущества нам это даёт и какие у нас текущие результаты. Один из примеров применения, это повышения производительности системы предотвращения вторжений. Во многих наших платформах мы имеем возможность увеличивать производительность IDPS на x*12 Гбит/с, где x – это количество дополнительных модулей ускорения, которые мы можем вставлять в платформы.

Доклад принят в программу конференции

Мультимодальный RAG для чертежей и ГОСТов: как подружить NebulaGraph, Qdrant и Nemotron-Mamba в закрытом контуре

Как построить систему поиска знаний, которая понимает не только текст регламентов, но и структуру изделия из чертежей, когда у вас всего одна карта H100 и строгие требования к приватности? Стандартный RAG здесь не работает: векторный поиск не видит связей между «гайкой» и «двигателем», а обычные VLM галлюцинируют на таблицах технических требований. В докладе я разберу архитектуру «Hybrid Fusion RAG» — гибридную систему поиска для инженерных задач. Вы узнаете: Почему мы отказались от Qwen 3 в пользу гибридной архитектуры Mamba+MoE (Nemotron-3-Nano-30B) и как это помогает загружать в контекст целые ГОСТы. Как скрестить NebulaGraph и Qdrant для «триангуляционного поиска», чтобы повысить точность с 60% до 94%. Оптимизация инференса: как запустить OCR чертежей, Graph-траверсал и LLM-ризонинг на 80GB VRAM, используя BF16 и TensorRT-LLM. Лицензионная чистота: сборка SOTA-стека из компонентов, доступных для Enterprise-контура в 2026 году.

Доклад принят в программу конференции

Реализация высокопроизводительной распределенной службы каталогов на Go и Badger DB

  • сравнение производительности служб каталогов (MS Active Directory, Free IPA, Samba DC) в основных сценариях использования протоколов LDAP, Kerberos;
  • CAP теорема в службе каталогов - решение проблем репликации и устойчивости;
  • оптимизация и применение KV-хранилища (Badger DB) для задач быстрого поиска объектов произвольной структуры;
  • оптимизация распределенной обработки большого объема сетевых запросов на Go - наш опыт.

Доклад принят в программу конференции

Базы данных и системы хранения (4)

PAX - аналог parquet/orc для Apache Cloudberry - форка Greenplum

Greenplum стал closed source. Но мы продолжаем развивать его в Apache Cloudberry. Как емко заметил в свое время Andy Pavlo, основной проблемой Greenplum было то, что никто больше не ставил его добровольно. Мы хотим это изменить. Например, добавили новый формат хранения PAX. PAX - колоночное хранилище для гибридной транзакционной и аналитической обработки. Ближайший аналог - parquet/orc. Зачем еще один формат? Краткий ответ - для производительности, потому нужны еще и улучшения в движок выполнения запросов, чтобы сделать аналог zone maps и bloom filter из parquet. Детали нового формата PAX и улучшений в движке запросов расскажу в докладе.

Доклад принят в программу конференции

Как колоночное хранилище может помочь legacy?

Михаил Шишкин

ООО Газинформсервис

В старых нагруженных корпоративных проектах часто можно встретить активное использование временных таблиц в СУБД. Нередко подобные решения оказываются очень чувствительными к росту объема поступающих в систему данных.

Чтобы оживить один из таких проектов без его модернизации мы воспользовались одним из ключевых преимуществ колоночных хранилищ и применили его к этому "проблемному" паттерну.

Доклад принят в программу конференции

💻 Воркшоп: «Допиливаем свой форк Постгреса свистелками»

Больше Постгресов богу Постгреса! Давайте на своём ноуте накодим себе доработанный напильником Постгрес: соберём, изучим внутренности, что-то улучшим, что-то сломаем, всё протестируем и надёжно склеим скотчем.

Доклад принят в программу конференции

MongoDB как единственное хранилище. Использование, проблемы, боль и последствия

MongoDB
Хранилища
Облака

Расскажу, как MongoDB работает в реальной продакшн-среде: как хранилище, кеш, брокер сообщений, time-series и распределенная база данных. Покажу, где она действительно справляется и позволяет упростить стек, а где на практике пришлось перейти на специализированные решения: Redis, Kafka, VictoriaMetrics. Поделюсь архитектурными компромиссами, эксплуатационными нюансами и выводами, которые помогают трезво выбирать инструменты.

Доклад принят в программу конференции

Data Engineering (1)

Почему SQL не может быть основным языком для потоковой обработки

Фреймворки
Асинхронное программирование, реактивное программирование
Архитектура данных, потоки данных, версионирование
Критерии выбора технологий для проекта
Максим Буйлин

Райффайзен Банк

Работая в крупных компаниях, я часто сталкивался с мнением, что батчевую разработку можно легко переделать на потоковую. Иногда дело заходило дальше и создавались платформы, которые позволяли реализовывать потоковую обработку при помощи SQL. К примеру, в Райфе основой потоковой обработки был SQL, а исполнителем этого SQL - Apache Flink. Подходило это решение не везде, далеко не везде. Давайте на примере Apache Flink разберемся где потоковую разработку на sql невозможно реализовать, где можно только с костылями, а где sql справляется с задачей.

Доклад принят в программу конференции

Безопасность высоконагруженных систем (2)

Как готовить TPM 2.0

Безопасность

Знания многих о модуле TPM 2.0 ограничиваются тем, что он зачем-то обязательно (или не очень) нужен для установки Windows 11. В своём докладе я хочу пролить свет на его функционал, рассказать как он устроен и как с его помощью можно защищать свои секреты (и секреты своих пользователей). Так же я расскажу, что нужно, чтобы достучаться до него из своего кода и поделюсь утилитой, которую я специально написал для тестирования возможностей этого модуля и демонстрации принципов его работы.

Доклад принят в программу конференции

Антибот без боли: защита от автоматизации без вреда для пользователей

DDoS
Атаки
Безопасность
Безопасность инфраструктуры

Боты составляют около 30% трафика и несут значительные риски — от финансовых потерь до деградации сервисов. В докладе я расскажу, как устроен современный антибот в Wildberries & Russ и как защищать ресурсы, не мешая реальным пользователям. Мы рассмотрим разные подходы к детектированию ботов: от скоринга на этапе прохождения капчи до анализа пользовательских сессий.

Доклад принят в программу конференции

SRE и эксплуатация систем (4)

FinOps: Anomaly Management как версия Incident Management

Максим Бурцев

Купер.тех

В рамках развития практик FinOps в Купере мы столкнулись с необходимостью управления "финансовыми аномалиями" – отклонениями в расходах на облачные ресурсы. Решение оказалось интересным и элегантным: вместо того, чтобы изобретать процесс с нуля, мы переиспользовали "кубики" из зрелых и уже показавших свою эффективность процессов управления инцидентами и проблемами. Расскажу о том, как это работает, почему это проще, чем кажется на берегу и как это поможет вам перестать переплачивать за облака и сервера.

Доклад принят в программу конференции

💻 Воркшоп по надежности: «Рожденный устойчивым»

Технологии отказоустойчивости и катастрофоустойчивости, бэкапы
Observability в enterprise
Надёжность продакшена
DevOps / SRE

Проведем воркшоп по надежности для разработчиков и инженеров. Разберем принципы архитектуры отказоустойчивости. Развернём отказоустойчивое web-приложения в Yandex Cloud с помощью сетевого балансировщика нагрузки (NLB). Протестируем кейсы High availability и получим Recovery Plan.

Доклад принят в программу конференции

💻 Воркшоп: «Смотри, как думает агент: Observability AI-агентов с Langfuse»

Логирование и мониторинг
Observability в enterprise
Надёжность продакшена
Логи, метрики, ошибки
DevOps / SRE
Филипп Бочаров

МТС Web Services (MWS)

Дмитрий Лобач

МТС Web Services (MWS)

AI-агенты в продакшене — это больше не эксперимент, а критичная инфраструктура. Но как понять, правильно ли агент отвечает, где и почему он «галлюцинирует» и во сколько реально обходится его использование?

На воркшопе мы разберём Langfuse — open source инструмент наблюдаемости для AI-приложений. Покажем, как организовать централизованный мониторинг ИИ-агентов и прямо на месте сделаем демо-агента наблюдаемым. Участники научатся трассировать вызовы LLM, собирать метрики, оценивать качество ответов и выполнять диагностику агентов так же, как и обычных продовых сервисов и приложений. Минимум слайдов, максимум практики: реальный агент, реальный прод-подход и живое инструментирование вместе с аудиторией.

Важно! Для участия в данном формате с собой необходимо иметь ноутбук. Код для воркшопа и требования к подготовке по ссылке: https://github.com/bocharovf/langfuse-workshop

Доклад принят в программу конференции

Автоматизация PostMortem: баланс между скоростью и качеством анализа критичных инцидентов

Андрей Давыдков

МТС Диджитал

Postmortem-анализ является одним из ключевых инструментов повышения надежности ИТ-систем, поскольку позволяет выявлять корневые причины сбоев и снижать риск их повторения. По мере усложнения ИТ-ландшафта, роста числа взаимосвязей между сервисами и усиления экосистемного взаимодействия проведение такого анализа в ручном режиме требует все больших временных и организационных затрат. При этом ожидания бизнеса остаются неизменными: критически важные системы должны восстанавливаться быстро, а разбор инцидентов — быть глубоким, системным и приводить к предотвращению аналогичных событий в будущем. В докладе будет представлен практический опыт развития postmortem-процесса в нашей компании: от создания централизованного подразделения Mission Control Center и формализации единых подходов для экосистемы до отказа от Excel- и Word-документов в пользу специализированных инструментов, автоматизации рутинных операций и создания Postmortem Copilot. Особое внимание будет уделено тому, как поэтапная автоматизация позволила сократить трудоемкость анализа критичных инцидентов и при этом сохранить необходимый уровень качества и полноты разбора. Результатом внедрения данного подхода стало существенное ускорение postmortem-анализа: время выполнения рутинной части процесса сократилось с 4–6 часов до 30 минут. Дополнительно был внедрен контроль качества проведенного анализа критичных инцидентов, что способствовало повышению эффективности восстановления критически важных систем; соответствующий показатель улучшился на 26% год к году. В настоящее время мы развиваем гибридный подход к автоматизации postmortem-процесса с применением методов искусственного интеллекта и машинного обучения в сочетании с ручной экспертной валидацией. В рамках доклада будет показано, какие этапы postmortem-анализа целесообразно автоматизировать в первую очередь, где проходит граница применимости AI/ML-подходов и почему сохранение экспертного участия остается необходимым условием для достижения баланса между скоростью и качеством анализа критичных инцидентов.

Доклад принят в программу конференции

Тестирование высоконагруженных систем (1)

Тест-драйв ClickHouse: 24 миллиарда событий в сутки

В нашей системе аналитики события проходят путь от шины данных через сервис сбора событий, попадают в Kafka, а затем — в ClickHouse с помощью Kafka-Engine. В архитектуре — три кластера ClickHouse (main, replica, sandbox) с настроенной репликацией, каждый из которых обслуживает свою зону ответственности: сбор, BI, пользовательские запросы.

Мы провели серию нагрузочных и отказоустойчивых тестов, чтобы убедиться, что система выдерживает реальные и экстремальные сценарии. В докладе расскажем:

  • Как устроен наш стриминговый пайплайн: от шины данных до ClickHouse.
  • Как сервис сбора событий справляется с миллиардами событий.
  • Какие тесты проводили:
  • 9 млрд событий в сутки;
  • 15 млрд событий в сутки;
  • 24 млрд событий в сутки — предел, к которому стремились;
  • внезапный скачок нагрузки х2;
  • сбой кластера ClickHouse и как он проявился;
  • сбой Kafka и поведение пайплайна;
  • запись всех событий в один проект вместо 50+ — и к чему это привело;
  • Kafka-Engine vs Kafka-Connect — замеры, сравнение, выбор.
  • Как организовали мониторинг и метрики, на что смотрели в Grafana и ClickHouse.
  • Какие баги, затыки и инсайты мы получили и как это повлияло на прод.
  • Дополнительный тюнинг ClickHouse для приема 100 млрд событий в сутки

Доклад будет интересен всем, кто работает с ClickHouse под высокой нагрузкой, собирает real-time-данные, использует Kafka и хочет понять, где тонко и как не порвать.

Доклад принят в программу конференции

Технологии будущего и специализированные темы (1)

«Тектонический сдвиг» мышления инженера: профессиональная идентичность в эпоху ИИ-трансформации

Внедрение ИИ-инструментов провоцирует у разработчиков всех уровней компетенций фундаментальный кризис идентичности:

  • смещение из роли «создателя» в роль «контролёра ИИ» воспринимается ими как потеря статуса и профессиональной ценности
  • исчезает «момент победы» - удовлетворение от самостоятельного решения сложных задач.

Современные реалии порождают кардинальное изменение инженерной культуры. И вместе с переходом на новые скорости производственного процесса, появляются и новые проблемы:

  • потеря мотивации
  • размывание инженерных компетенций
  • долгосрочная потеря глубокой экспертизы.

Как же не потерять именно тот человеческий капитал, на котором держится качество разработки? Выход – в осознанном управлении переходом.

Необходимы новые модели, которые возвращают разработчику ощущение профессиональной значимости и создают условия для роста компетенций в симбиозе с ИИ, а не вопреки ему.

Доклад принят в программу конференции

GenAI и большие языковые модели (LLM) (12)

Что реально стоит за созданием собственной LLM?

GigaChat это уникальная российская LLM, которую обучают, оптимизируют и масштабируют в продакшне. Голосовые ассистенты, управление роботами, мультимодальность — всё держится на одной текстовой модели.

Почему 90% команд отказываются строить свою LLM? Слишком дорого, слишком долго, слишком много неизвестных. Что реально стоит за этим решением — по деньгам, по инженерным ошибкам, по выбору архитектуры?

Как решали: Я расскажу о GigaChat 3.5 в стиле инженерного разбора: почему текстовая модель стала ядром для синтеза речи, мультимодальности и робототехники. Как оптимизировали датасеты претрейна, как сократили цикл экспериментов и как удешевили обучение и инференс под реальные highload-нагрузки. Плюс — конкретные продакшн-кейсы с метриками и деньгами.

Что заберёте с собой: — Стоимость обучения LLM: где уходят ресурсы и как это сократить — Оптимизация цикла исследований: от данных до экспериментов — Почему одна базовая текстовая модель выигрывает у зоопарка специализированных — Продакшн-кейсы и российской LLM

Доклад принят в программу конференции

Экономика LLM inference на потребительских GPU: сколько стоит токен и почему это важно знать

Оптимизация производительности
Логирование и мониторинг
Работа с облачными сервисами
Эффективное использование облаков
DevOps / Кубер
Инфраструктура
Егор Андреев

Admindivision / Впрод

Мы 15 лет строили инфраструктуру для финтеха и телекомов. Полтора года назад к нам пришли клиенты с задачей «запустите LLM в проде». Мы взялись, собрали платформу на open-source стеке и запустили в production у облачного провайдера Nubes на потребительских GPU (RTX 5090).

По дороге выяснилось, что самый сложный вопрос — не «как запустить модель», а «сколько это стоит и как считать». Когда мы впервые посчитали себестоимость токена, экономика не сходилась. Пришлось разбираться, от чего она зависит и как на неё влиять.

В докладе — экономика inference с конкретными числами:

— Формула себестоимости токена: P = 1M × R / (Q × 3600 × U). Разберём каждую букву, покажу как подставить своё железо и получить свою цену

— Таблица по 7 моделям (от 4B до 120B) на RTX 5090: throughput, себестоимость при разной утилизации. Разброс себестоимости между моделями — в 10 раз, и это не очевидно до тестов

— Что влияет на экономику: квантизация (одна настройка — минус 60% себестоимости), утилизация GPU, выбор модели под задачу. Почему маленькая модель на одной карте может быть выгоднее большой на четырёх

— Чему нас научил рынок: мы общались с командами, у которых 100-500 GPU. Оказалось, что автоскейлинг inference не решён даже у них, а типичная рабочая нагрузка — 1-2 карты, не десятки

Слушатели унесут формулу расчёта себестоимости, таблицу бенчмарков и понимание, как устроена экономика LLM inference — чтобы не считать на глазок, а знать цену своего токена.

Доклад принят в программу конференции

💻 Воркшоп: «Гонка на скорость: человек против генеративного ИИ в Хранилище данных»

PostgreSQL
Базы данных / другое
Machine Learning
Хранилища
Обработка данных
Татьяна Сеземина

ИТ-холдинг Т1

Виктор Парфенов

ИТ-холдинг Т1

Александр

ИТ-холдинг Т1

  • Человек vs ИИ в хранилище данных — проверим вместе с вами, кто быстрее на реальных задачах
  • Вместе с ИИ и без него: напишем SQL-код, построим data lineage, определим на что влияет атрибут таблицы, по коду "восстановим" постановку задачи, и как итог - починим "сломавшийся" отчет
  • Поймем, где ИИ уже выигрывает :)
  • А где все-таки без человека еще никак?
  • Расскажем про реальные практические кейсы использования ИИ в Хранилищах данных на наших проектах
  • Покажем метрики, которые мы замеряли: экономия рабочего дня в целом и экономия на отдельных задачах
  • Поговорим про будущее хранилищ данных: кто все-таки выигрывает эту гонку - человек или машина, какой уровень автономности хранилищ нас ждет

Доклад принят в программу конференции

LLM Performance Playbook: как выбрать модель и конфигурацию сервинга на основе воспроизводимых тестов

LLM в продакшене - это не только качество ответов, но и управляемая производительность под реальной нагрузкой. В self-hosted сценариях на итог влияет много факторов: от выбранного движка до объёма памяти. В докладе я покажу, как мы в Магните построили воспроизводимый пайплайн нагрузочного тестирования для выбора подходящей LLM и настройки конфигов сервинга - с упором на возможность повторить это на своём железе. Мы разберём, как организовать нагрузочные тесты на Locust для корректного измерения TTFT/ITL/TPS, находить порог стабильности и избежать искажения результатов из-за упрощённых условий тестирования. Отдельно продемонстрирую, какие сигналы в observability помогают объяснять деградации и подтверждать эффект изменений.

Доклад принят в программу конференции

AI-команда будущего: как меняется разработка продуктов и какие навыки нам нужны

Две части: первая сильно техническая (как устроено) - минут на 25, вторая перетекает из первой - как с этим жить - на оставшиеся 15


-- Первая часть

Ключевой тейк технической части: AI-инструменты очень специфичны и "просто дать" их разработке может приводить к тому что, что две одинаковые команды перформят по разному: у одних все летит и радует, другие упираются в лимиты и переписывания по кругу.

  1. Что под капотом: весь низкоуровневый флоу того, что происходит после команды "сделай мне фичу Х"

    • Контекстное окно и харнесс
    • Токенизатор и его особенности работы с кодом
    • Проблемы контекстного окна, компактизация
  2. Поиск кода: поиск, сигналы и документация

    • векторный поиск против разновидностей grep, плюсы и минусы подходов
    • high-signal tokens как философия ретрива
    • культура документации и сложности
  3. Экономика: где горит бюджет

    • cache-hit и ttl
    • План/реакт и effort
    • cost per call / per outcome
  4. Код как дашборд

    • Какая телеметрия появилась
    • acceptance vs revert
    • silent drift & regression set

-- Вторая часть: Ключевой тейк: изменение скорости написания кода требует переосмысления SDLC целиком, а не просто одной части.

1) Что происходит со структурой команды — стафф-лок тает (когда знание про то как работает Х у одного-двух человек) — специализации размываются (T-shape становится шире, вертикаль мельче) — численность команд падает

2) Как меняется культура работы и процессы - толерантность к перетурбациям инструментво (новый софт скилл) - изменение роли код-ревью - дисциплина эвалов становится общей на разработку вместо только ML

3) Новые боттлнеки и роли людей - что становится узким местом - как меняется иерархия в команде

Финальный вывод о том что инструменты становятся не просто инструментами - они меняют весь процесс и требуют его переосмысления

Доклад принят в программу конференции

💻 Воркшоп: «Построение AI-агента: Говори с данными на языке бизнеса»

Метрики
Лайфхаки
Инструменты

Аналитики тратят часы на SQL-запросы, которые «почти как в прошлый раз, но не совсем». Каждая BI-система — свой синтаксис, каждый дашборд — ручная работа, каждая выгрузка — снова с нуля. Знакомо?

А что если просто написать: «Посчитай MAU и выручку по тарифам с 2025 года» — и получить готовый интерактивный график через 30 секунд?

Воркшоп построен по слоям. Сначала поднимаем рабочую среду и снимаем главную боль: агент читает схему вашей БД, историю запросов и отвечает на бизнес-вопросы на человеческом языке — без SQL вручную.

Но дальше интереснее. По ходу воркшопа будем намеренно сталкиваться с реальными проблемами: агент перегружает продовую базу — решаем. Агент путает имена таблиц и полей — решаем. Каждый слой добавляет надёжности, пока в финале не получим полноценное, защищённое AI-рабочее место продуктового аналитика, готовое к enterprise.

OpenCode — MIT open source, работает в терминале, без IDE и регистраций. Поддерживает 75+ провайдеров: Claude, GPT, Gemini и локальные модели через Ollama — данные не покидают вашу инфраструктуру.

Что заберёте с собой: - Поднятый рабочий стек с AI-агентом, настроенным под аналитику - Готовый AGENTS.md и понимание, как масштабировать решение в команде - Навык итеративного построения AI-инструментов: от прототипа до продакшена

Что сможете вписать в резюме: - Опыт построения AI-агентов для аналитики данных - Работа с OpenCode, ClickHouse, Redash, MCP в связке - Внедрение LLM-инструментов в data-процессы с учётом enterprise-требований

Доклад принят в программу конференции

Model Merging. Как объединить знания нескольких LLM в одну.

В эпоху активного развития больших языковых моделей перед разработчиками часто встает дилемма: как совместить преимущества нескольких специализированных моделей, обученных на разных задачах, не запуская при этом множество моделей одновременно? В докладе мы рассмотрим актуальную проблему объединения параметров языковых моделей (model merging) и познакомимся с существующими подходами: от простого усреднения весов до методов LoRA merging и Task Arithmetic. Вы узнаете, почему традиционные методы часто приводят к деградации качества и как можно это исправить.

Мы представим новый метод Significant Deltas Merging with Weights (SDM-W), который позволяет интеллектуально объединять модели, учитывая только значимые изменения параметров и автоматически определяя вклад каждой модели. На практических примерах покажем, как метод помогает создать универсальную модель, которая одинаково хорошо справляется с генерацией кода, вызовом тулов и корпоративными задачами. Результаты экспериментов демонстрируют сохранение 95-98% точности при экономии до 30% вычислительных ресурсов.

Доклад принят в программу конференции

Безопасность AI-агентов: векторы угроз и механизмы защиты

Юрьева Радда

Positive Technologies

На реальных примерах шаг за шагом покажу типовые виды защиты AI-агентов и их уязвимости с точки зрения пентестера. Поделюсь и тем, что можно сделать во время разработки и на стадии поддержки, чтобы уменьшить шансы злоумышленников.

Пройдем путь от незащищенного агента к укрепленному, с примерами атак и фиксов: обход логики системных промптов с примерами из контестов и багбаунти, обходы ML guardrails с помощью сдвигов текста, шифрования ответов, смены языка и др. LLM guardrails через подбор состязательных суффиксов/префиксов, кейсы из Web3 (например, атака на автономных агентов с переводом активов), Telegram/Discord/Twitter агентов и мультиагентов

Практическая ценность: - Алгоритм аудита для своих LLM-агентов: как выявить уязвимости вроде prompt-injection или supply chain атак. - Шаблоны защит: опенсорсные инструменты (Ml Guardrails, Llama Guard, выбран за эффективность в блокировке 99.997% jailbreaks по тестам на 300k промптах). - Ссылки на таксономию уязвимостей промптов и сравнение моделей от нас (из исследования апрель 2025), и от Pangea (август 2025) - Ссылки на OWASP Top-10 LLM, AI agents, MITRE и предлагаемые ими схемы защиты

Доклад принят в программу конференции

Context is a must: как мы системно управляем контекстом

Андрей Неведин

Райффайзенбанк

AI-агенты в enterprise без контекста — дорогие игрушки. Мы в Райффайзенбанке построили две платформы — Context Annotation (разметка бизнес- и технического контекста организации) и Context Memory (персистентная память агентов о клиенте) — которые дают агентам связное представление "модели мира" организации и клиента. Расскажу, как мы пришли к этой архитектуре, какие грабли собрали и какие результаты получили на трёх кредитных продуктах.

Доклад принят в программу конференции

Harness на стероидах, как заставить ИИ работать

Леша Гладков

Независимый эксперт. Ex-Head of Mobile в Леруа Мерлен.

Тезисы (общие): Токены растут вверх в цене, голый Claude или Codex уже не может удовлетворять требованиям современной разработки, но выход есть. Если хорошо настроить окружение, то можно вернуть старый добрый в 2025. Как это сделать - расскажу в своем докладе

Доклад принят в программу конференции

Опыт перехода от maas к selfhosted/on premise моделям: проблемы, боли, решения

В докладе поделимся практическим опытом переезда высоконагруженных AI-сценариев с вендорских моделей как услуги (MaaS) на локальные (on-premise) LLM, STT и эмбеддинги. Расскажем про реальные инженерные проблемы такого перехода: от ограничений контекстного окна и ресурсоемкости его обработки до деградации скорости инференса на фреймворках вроде vLLM и сложностей балансировки разноплановой нагрузки. Развенчаем популярные мифы о хостинге моделей и дадим конкретные инсайты, основанные на эксплуатации ансамбля моделей, обрабатывающего миллионы запросов в месяц.

Доклад принят в программу конференции

Как построить text2sql с нуля и собрать (почти) все шишки

Аналитика / другое
Никита Круглов

Альфа-Банк

Как перевести естественный вопрос в SQL код и начать внедрять эту систему в бизнес процессы. Как с нуля построить персонализированную агентскую систему для словесного общения с базами данных, построением графиков по запросу и лаконичными выводами.

Доклад принят в программу конференции

Доклады вне привычной рамки (7)

Игра «System Design»

Архитектурное соревнование надо? Викторина по System Design и Архитектуре в live режиме! Будет яростный челендж по протоколам, архитектуре, паттернам и антипаттернам! А также по истории IT! Участники пройдут заранее отборочный этап на канале system_design_world. Записывайтесь! Сильнейшие ТОП-4 выйдут в финал уже на самой конференции! Где покажут чьи архитектурные мозги оказались сильнее! Окунитесь в мир System Design, участвуйте и болейте за своего финалиста!

Доклад принят в программу конференции

Fail-митап

Конференции завалены историями успеха. Но путь к успеху всегда лежит через фейлы, о которых рассказывать не принято. Но только не на нашем fail-митапе!

В своих коротких, но зажигательных выступлениях спикеры поделятся настоящими историями фейлов. Без записи, без трансляции, без комплексов.

Доклад принят в программу конференции

💻 Воркшоп-хакатон «Вайбкодим и запускаем крипторубль за час»

Блокчейн-технология
Смарт-контракты

(!) Для интерактивного участия требуется наличие ноутбука с софтом для вайбкодинга.

Цель этого воркшопа-хакатона, продемонстрировать как выглядит процедура разработки и запуска собственного криптоактива в реальные сети. Мы реализуем собственный криптоактив в коде, развернем контракты в реальном блокчейне, проведем платежные транзакции, а также покажем как могут быть имплементированы требования регулятора.

Средства ИИ разработки позволят нам не тратить время на boilerpalte-ы для Solidity, Python, JS и сосредоточиться на демострации работы различных видов сервисов, оперирующих криптоактивами.

Доклад принят в программу конференции

💻 Воркшоп: «Глитчим микроконтроллеры пока не сольем прошивку»

Даниил Соболь

Независимый эксперт

Реверс-инжиниринг - важный аспект индустрии разработки. Сейчас проблема с реверс-инжинирингом стоит особенно остро. Производители защищают прошивки: они либо недоступны для скачивания из устройства либо зашифрованы. Получить прошивку или ключ к ней - первый шаг в реверс инжиниринге. Часто, получить доступ к защищенной памяти устройства проще чем может показаться, если знаешь что делаешь. На этом воркшопе я покажу простые техники которые позволяют обойти защиту некоторых микроконтроллеров и получить доступ к защищенной памяти. Участники этого воркшопа получат базу в глитчинге и смогут в дальнейшем сами развивать свои навыки.

Доклад принят в программу конференции

Путь CTO

Павел Соломин

Wildberries & Russ

Кто такой CTO? Архитектор, психолог, менеджер, продавец, или кто-то ещё?

Почему вам не надо становиться СТО? А если очень-очень хочется, с чем придётся столкнуться?

Расскажу на собственном примере как получилось, что я стал СТО, что больше всего болит в этой роли, где ищу мотивацию.

Доклад принят в программу конференции

Мастер-класс «Детские болезни доменных платформ в BigTech: архитектурные ошибки, которые дорого чинить»

Архитектурные паттерны
Масштабирование с нуля
Архитектуры / другое
Проектирование информационных систем
Поддержка и развитие legacy систем
Екатерина Лысенко

Независимый эксперт

Кажется, что если платформа живет внутри BigTech, то там уже все давно правильно спроектировано, обдумано и выстрадано. Спойлер: нет. Боли есть всегда. В любой доменной платформе. Если это не BigTech, а стартап — боли там тоже есть, просто о них еще не знают. А потом мы все дружно и героически их чиним. И периодически сами же снова создаем — потому что никто из нас не идеален, особенно когда домен еще не прожит и времени на «сначала подумать» традиционно нет.

Этот разговор — про повторяющиеся архитектурные ошибки в доменных платформах. Не про инфраструктуру. Про те самые решения, которые сначала «ну пока так», а на этапе роста внезапно становятся очень дорогими.

Мы возьмем четыре платформенных домена, которые довольно часто одновременно существуют внутри одного BigTech: — FinTech — Compliance — заказы и корзина в e-commerce — каталог и витрины и посмотрим на них как на одноранговые системы.

Потому что самое интересное — не в различиях. Самое интересное — в том, насколько одинаково они ломаются.

Это выступление не случайно в секции «Непривычные рамки». Это пере-доклад и недо-мастер-класс. Слушать и кивать не получится — придется думать, смотреть в схемы, искать, где именно спрятана проблема, и обсуждать, что с ней происходит при росте.

Я не буду рассказывать, как правильно. Мне гораздо интереснее показать, как обычно получается — даже у очень опытных команд — и почему это потом так больно чинить.

Главный вывод, к которому мы попробуем прийти вместе: неважно, в каком домене вы работаете. Если это платформенный домен, принципы их устройства и паттерны их поломок — сквозные. И если начинаешь их видеть, то начинаешь узнавать их везде.

Это разговор для тех, кто хотя бы раз приходил в новую компанию, смотрел на платформу и думал: «О, опять ОНО!».

Доклад принят в программу конференции

Битва за бюджет: интеграция AI должно было сэкономить, а где в итоге экономия?!

Год назад купили команде AI-инструменты и ждали, что мидлы начнут уходить. Год прошёл, мидлы на месте, бюджет вырос, в отчёте — «стали эффективнее». Что произошло на самом деле и куда ушли деньги — разбираем на сцене.

Сажаем рядом бизнес и тех отдел. У бизнеса вопросы из P&L, у тех отдела — ответы про другую экономику. Каждый аргумент проверяется оппонентом — за кулисами такие разговоры идут давно, мы постараемся выноести их на сцену.

Ряд кейсов покрывают весь цикл расходов на AI: лицензии, инфраструктура, смена моделей, планирование, команды, утилизация. С реальными цифрами и позициями обеих сторон. Цифры из практики: $120K → $180K на лицензиях за год; $500K за свой кластер против $180K подписки; реальная утилизация AI-ассистентов; разница в скорости отделов при одинаковом бюджете.

Что заберёшь домой как CTO или Владелец бизнеса: рамку для разговора друг с другом. Какие расходы признавать как OPEX, какие как страховку, как обосновывать context engineering, почему сравнение «лицензия vs ещё один разработчик» — некорректное. И в обратную сторону — какие отговорки тех отдела перестают работать, когда бизнес считает всерьёз.

Доклад принят в программу конференции

Резерв (1)

Почему хорошие инженеры не строят стартапы — и как это исправить

Алексей Шаблюк

Независимый эксперт, exCTO VK Cloud, exCTO Kion

Название: Почему инженеры не становятся фаундерами. 5 блокеров и методика преодоления. Описание: Четыре раза я выбирал роль CTO, а не фаундера. Стартап в Испании, ЛитРес, Kion, VK Cloud. Каждый раз находились причины: то рано, то рынок не тот, то времени нет, то денег жалко. Сейчас, уйдя в независимые и запуская свое, я понимаю: каждая из этих "причин" была конкретным блокером. Три из них сидели в голове, два маскировались под психологию, но на самом деле были задачами на операционную модель и тайм-менеджмент. В РФ разработчиков больше, чем почти где угодно. Стартапов из этих разработчиков рождается непропорционально мало. Причины есть и структурные (рынок, регулирование, капитал), и личные. В докладе разбираю вторые: пять конкретных блокеров, которые тормозят переход инженера в фаундера. Три психологических, два структурных. По каждому: формулировка, кейс из своего опыта, конкретная методика, чек-лист.

Что заберете с собой: - Карта 5 блокеров инженера на пути к стартапу с методикой преодоления каждого - Документ "Готовность к стартапу: 5 срезов" (навыки, перфекционизм-тест, команда, финансовая модель, карта недели) - Фреймворк минимального стека фаундера, который собирается за 2 месяца - Шаблон бизнес-эксперимента до первой строчки кода - Понимание, какой из блокеров ваш, и конкретный первый шаг по нему

Доклад принят в программу конференции

Afterparty (1)

Саботёры правят ТЗ

Татьяна Сущенко

Независимый эксперт

Игра, в которой исполнитель задачи будет делать жизнеспособный продукт и противостоять саботёрам, вносящим правки в ТЗ.

Казалось бы, ТЗ — это главный источник правды. Но чем выше ты растешь в карьере, тем реже можешь ответить своим коллегам, что «этого не было в ТЗ». Нужно думать на шаг вперед. Нужно предвидеть, что в том самом ТЗ, которое для тебя центр и основа, рано или поздно появится или исчезнет пара слов, и это полностью поменяет картину мира.

Как если из словосочетания «Внутреннее CRM-решение» исчезнет слово «внутреннее».

Пытаясь стать лидерами рынка, из самых лучших побуждений, саботёры правят ТЗ.

На игре мы попрактикуемся предусматривать неожиданные повороты и находить выходы из неочевидных ситуаций.

Участники разделятся на команды, в каждой из которых будет один защитник, остальные игроки - саботёры. Все как в жизни ;)

На старте у каждой команды будет ТЗ. Саботёры, действуя в своих интересах, будут устраивать каверзы, внося в ТЗ «небольшие правки», а защитники — эти каверзы отбивать, интегрировать, адаптировать, в общем, делать всё, чтобы эти неожиданные изменения не стали катастрофой для продукта.

Доклад принят в программу конференции

Продуктовые решения (2)

Батл: Продуктовое мышление vs Инженерная дисциплина

Два тимлида. Четыре раунда. Один вопрос: разработчик должен думать как продакт — или это путь к хаосу? Одна сторона считает, что 80% фич не выстреливают, а значит лучше катить мелко, смотреть метрики и не строить собор там, где хватит навеса. Другая — что быстро выкатил значит быстро сломал доверие, а «потом переделаем» на практике означает никогда. Формат — батл: аргументы, панчи, голосование зала. Без слайдов на 80 страниц.

Доклад принят в программу конференции

Цифровой двойник. Или как выбрать подход для управления сложной сетевой инфраструктурой?

Управление уязвимостями
Автоматизация разработки, доставки, эксплуатации
Инфраструктура
Безопасность инфраструктуры
Инструменты

Мы расскажем о том, как управлять сетевой инфраструктурой из десятков тысяч узлов, применяя математическую точность, и как эмулировать изолированный сегмент сети с реальным трафиком, в каких случаях используется комбинированный подход.

Доклад принят в программу конференции