Умный поиск по внутренней базе знаний с использованием LLM: от архитектуры до внедрения

Нейронные сети и искусственный интеллект (data science)

Доклад принят в программу конференции

Мнение Программного комитета о докладе

История о том, как Т-Банк улучшал поиск по всей внутренней проектной (и не только) информации. Тот случай, когда просто «нормально» — это мало, и нужны постоянные улучшения. Рекомендуется тем, кто хочет использовать информацию по полной.

Целевая аудитория

* Любой член IT-команды, который захочет принести такое же себе в команду; * разработчики платформенных инструментов; * пользователи внутренних инструментов; * AI-инженеры.

Тезисы

Расскажу, как мы использовали LLM и RAG для построения умного поиска по базе знаний компании, чтобы ускорить работу IT-команды: продактов, разработчиков, тестировщиков и всех-всех-всех. Рассмотрим реальные примеры использования, архитектуру, оценку качества и какие сложности мы решали с эволюцией системы.

Занимался разработкой внутренних систем и руководит крупными юнитами в Т-Инвестициях: писал приложения на Scala, Go, а теперь использует еще и Python для решения задач с использованием AI/ML.

Видео

Другие доклады секции

Нейронные сети и искусственный интеллект (data science)