Профессиональная конференция разработчиков высоконагруженных систем

Атаки на AI-чат-боты и методы защиты

Нейронные сети, искусственный интеллект

Безопасность программного кода, SQL и прочие инъекции
Machine Learning
Application security
Безопасность

Доклад принят в программу конференции

Мнение Программного комитета о докладе

Чем больше LLM проникает в нашу жизнь, тем острее встают вопросы безопасности. Вариативность атак меняется не просто быстро, а очень быстро. Из доклада вы получите полное представление о текущем состоянии атак на LLM и научитесь идентифицировать потенциальные уязвимости в своих приложениях.

Целевая аудитория

Разработчики чат-ботов на базе больших языковых моделей LLM, руководители ИБ и СТО компаний, которые начали внедрять AI.

Тезисы

В докладе рассмотрим новые виды атак на чат-боты, использующие LLM. Разберем, как обходят safety layer моделей, как работают prompt injection и разные виды jailbreak. Разберем виды и классификации атак по разным фреймворкам. Обсудим, почему OWASP создали 3 отдельных гайда по LLM Security. На докладе будет представлен чек-лист, которым можно пользоваться перед запуском приложений в прод.

Виды атак, которые будут изучены: adversarial атаки с суффиксами, конкатенация промптов, отравление обучающей выборки, уязвимости библиотек и supply chain, уязвимости AI-фреймворков.

Имеет опыт работы в проектах Microsoft, Google и Сбер, где занимался внедрением сложных технологических решений в различные отрасли от финтеха до медицины. Выводил на рынок специализированные продукты для маркетплейсов AWS, PowerBI, Slack, и Atlassian. Сейчас фокусируюсь на изучении аспектов безопасности ИИ и разработке мер защиты для ИИ-приложений.

Raft

Raft специализируется на разработке прикладных решений на основе генеративного ИИ. Одно из наших решений - это платформа для анализа звонков на GPT http://audioinsights.ru. Мы активно используем сервисы OpenAI, открытые модели Llama/Mistral, и являемся партнёрами YandexGPT и СберДевайсов.

Видео