Доклады секции "Нейронные сети и искусственный интеллект (data science)"
(10)
Обучение GigaChat MAX
Осенью этого года мы запустили одну из самых сильных языковых моделей, говорящих на русском, — GigaChat MAX
Эта модель — синтез самых современных технологий распределенного обучения и качественных данных.
Мы много работали над качеством обучения, его скоростью и стабильностью и хотим поделиться результатами: расскажем об оптимизациях NCCL, технологиях распределенного обучения и тренировке модели в пониженной точности.
Доклад принят в программу конференции
Как с помощью ИИ мы генерируем 130 тысяч шортсов в месяц
В последние годы вертикальные видео стали стандартом в мире цифрового контента, но как найти для них действительно увлекательные моменты?
В этом докладе я поделюсь нашим опытом автоматизированного создания шортсов. Я расскажу, почему для создания хорошего шортса нам необходимо использовать более десятка различных моделей. Рассмотрим наш пайплайн обработки данных. Вы также узнаете, как мы автоматически ранжируем шортсы по их интересности, а также ключевые нюансы вырезания вертикального видео. Наконец, обсудим, как мы успешно справляемся с вызовами, возникающими в условиях ограниченных вычислительных ресурсов.
Доклад принят в программу конференции
Динамическое ранжирование поисковой/рекомендательной выдачи в высоконагруженных системах: PID-регулятор для баланса KPI и релевантности
Ключевая проблема: как гарантировать работодателям увеличение просмотров вакансий в 3-10 раз (платный KPI), не нарушая релевантность выдачи для пользователей, если:
* просмотры зависят от позиции, но нет формулы «позиция → клики»;
* статические бусты приводят к перегреву/исчезновению вакансий.
Решение: PID-регулятор, заимствованный из инженерных систем (температура, круиз-контроль), адаптированный для ранжирования в реальном времени.
Технические компоненты:
* A/B-тест для измерения «ненаблюдаемого»;
* 5% трафика (контроль) → базовый уровень просмотров для каждой вакансии;
* цель для платных тарифов: базовый уровень × 3 (или 10).
PID-логика: P (ошибка «цель vs факт»), I (история дефицита), D (предсказание перебуста).
Формула коэффициента: U(t) = K_p × e(t) + K_i × ∫e(t)dt + K_d × de(t)/dt.
Архитектура: нормирование релевантности (скоры → [0,1]), фичстор (история просмотров, PID-параметры), стартовый буст для новых вакансий через сигмоиду.
Результаты для highload-систем:
* KPI для бизнеса: 89% вакансий на тарифе ×3 и 94% на ×10 выполнили цели;
* для пользователей: CTR +1.5%, время отклика ↗7% (более релевантный выбор).
Применимость подхода.
Класс задач: динамическое ранжирование с бизнес-ограничениями (просмотры, конверсии, доход).
Стек: высоконагруженные поисковые системы, где требуется баланс между монетизацией и UX.
Ограничения: требует A/B-тестов для калибровки и точного измерения «ненаблюдаемых» метрик.
Почему это будет в докладе:
* реальные кейсы «танцующих» вакансий в выдаче (графики + логика PID);
* архитектурные решения для работы в реальном времени.
Сравнение PID vs ML: когда что выбрать.
Ключевой вывод: PID-регулятор — интерпретируемый и ресурсоэффективный способ балансировки в highload, не требующий глубокого ML. Но гибрид «PID + прогнозирование» — следующий шаг.
Доклад принят в программу конференции
Обход защиты LLM при помощи состязательных суффиксов и AutoDAN
В докладе я расскажу, что такое состязательные суффиксы, почему любая LLM им подвержена, как самостоятельно создать такой суффикс и почему OpenAI не считает это угрозой безопасности. Также я поделюсь результатами исследования о переносимости суффиксов между различными моделями и дам советы по тестированию ИИ-приложений на основе LLM.
Доклад принят в программу конференции
Миллион товаров, опыт один: используем коллаборативные и мультимодальные эмбеддинги для кластеризации
Расскажу о пути, который мы прошли, чтобы построить кластеризацию товаров на маркетплейсе для решения задач составления тематических подборок для огромного числа товаров и улучшения пользовательского опыта.
В итоге получилось решить проблемы, связанные с каталогизацией и созданием тематических групп товаров, ускорить продвижение товаров, еще не проиндексированных рекомендательной системой, научиться лучше понимать интересы пользователя.
Что еще будет в докладе?
* Почему пришли к задаче кластеризации и какие бизнес-требования перед нами стояли.
* Выбор подходящего варианта решения задачи кластеризации.
* Поиск метрик, на базе которых можно оценить качество получившейся кластеризации.
* Обзор проблем, связанных с подготовкой к проду, а также их решения.
Доклад принят в программу конференции
Умный поиск по внутренней базе знаний с использованием LLM: от архитектуры до внедрения
Расскажу, как мы использовали LLM и RAG для построения умного поиска по базе знаний компании, чтобы ускорить работу IT-команды: продактов, разработчиков, тестировщиков и всех-всех-всех. Рассмотрим реальные примеры использования, архитектуру, оценку качества и какие сложности мы решали с эволюцией системы.
Доклад принят в программу конференции
Как мы создали свое аппаратное решение для измерения габаритов и веса товара с помощью нейросетей и стереокамер
Зачем бизнесу нужна автоматизация измерений габаритов и веса товаров? Как точные и быстрые измерения помогают сократить затраты и оптимизировать логистику.
В докладе я расскажу путь разработки нашего аппаратного решения для измерения весогабаритных характеристик товаров.
От выбора оборудования до проектирования архитектуры системы. С какими техническими вызовами мы столкнулись и как их преодолевали. Как нейронные сети помогают измерять объекты и повышать точность. А также поделюсь реальными результатами: данными из продакшна, выводами и итогами проекта.
Доклад принят в программу конференции
Склад Шредингера: как с помощью компьютерного зрения сократить инцидентность на больших складах логистического оператора
В крупных логистических центрах потери, связанные с ошибками персонала, нарушениями регламента и кражами, исчисляются миллиардами рублей. Установка видеонаблюдения отчасти решает проблему, но чем больше камер, тем больше объем данных для хранения, больше нагрузка на сервера, больше операторов для непрерывного мониторинга видеопотока. И при этом сами логисты признают, что видят только малую часть всех инцидентов.
Обучив камеры в крупнейшем логистическом операторе, мы смогли на порядок повысить производительность сотрудников отдела мониторинга по детектированию динамических инцидентов на складе (например, бросание груза при погрузке/разгрузке).
В докладе я расскажу, как мы на своих ошибках поняли, как именно нужно обучать модель, чтобы результаты на тестовых данных несильно отличались от данных с продакшна. И как добиться того, чтобы результаты работы модели чаще свайпали вправо.
Доклад принят в программу конференции
Воркшоп «Удивительные эмбеддинги: как векторные представления применяются в задачах поиска и рекомендаций»
Эмбеддинги — это революционный инструмент, который уже сейчас трансформирует подходы к работе с информацией во множестве отраслей от поисковых систем и рекомендательных сервисов до бизнес-аналитики и маркетинга. Благодаря их уникальной способности представлять сложные данные, такие как тексты и изображения, в виде компактных числовых векторов, мы получаем новые возможности для автоматизации и оптимизации процессов, о которых раньше можно было только мечтать.
На нашем воркшопе вы не просто познакомитесь с различными видами эмбеддингов, но и научитесь применять их на практике для решения реальных задач. Мы подробно разберем:
* типы эмбеддингов: текстовые, визуальные и составные;
* операции с эмбеддингами: суммирование и кластеризация для анализа данных и выявления скрытых закономерностей;
* векторный поиск: пошагово создадим простой, но эффективный поисковый движок на основе базы Qdrant;
* рекомендательные системы: научимся строить систему персонализированных рекомендаций за 5 минут;
* файн-тюнинг эмбеддингов: обсудим, как донастроить эмбеддинги под ваши конкретные задачи, значительно повышая их точность и эффективность.
Главный вывод воркшопа: эмбеддинги — это мощнейший инструмент для структурирования, анализа и персонализации данных, открывающий принципиально новые горизонты в работе с информацией.
Доклад принят в программу конференции
Автоматизированный алгоритмический трейдер-бот для управления и оптимизации ставок и бюджетов рекламных кампаний в Телеграм
В докладе я расскажу, как мы создали трейдер-бот для управления тысячами рекламных кампаний на основе data-driven-подхода с целью максимизации ключевых бизнес-метрик на платформе Телеграм. Бот в режиме реального времени заменяет собой 100% функционала множества людей или может быть использован в качестве «цифрового консультанта». В основе лежит комплексная архитектура со своими контурами хранения, мощным ML-движком и интеграция с Telegram Ads API.
Доклад принят в программу конференции