Рассказываем про безопасность решений на больших языковых моделях
Привет, друзья!
Нейросети — это тренд последних лет. Они внедряются повсеместно и упрощают жизнь инженеров и всего бизнеса в целом. Но при этом несут в себе новые угрозы, с которыми надо учиться бороться. Руководитель AI-продуктов компании Raft Евгений Кокуйкин расскажет про безопасность решений на больших языковых моделях. О том, какие новые уязвимости появляются и как инъекции помогают с ними справиться.
Как защитить бизнес при внедрении LLM (часть 1)
Как защитить бизнес при внедрении LLM (часть 2)
Доклады Saint HighLoad++ 2024 про ИИ
Андрей Кузнецов (AIRI) расскажет о подходах к построению фундаментальных мультимодальных моделей на основе языковых моделей. Уделит внимание аспектам построения такого рода архитектур, расскажет про эмерджентность и саморефлексию моделей. Вы узнаете, как научить языковые модели понимать аудио, картинки, видео и другие типы данных, отличающиеся от текста.
Доклад Алексея Воропаева (SberAutoTech) о том, как современные нейросети позволяют организовать End2End-обучение и тестирование беспилотного транспорта.
В своём докладе Евгений рассмотрит новые виды атак на LLM. Разберем, как обходят safety layer моделей, как работают prompt injection и разные виды jailbreak. Углубимся в тему классификации атак и покажем, какими инструментами необходимо защищать прикладные решения. Разберем, как разные модели противостоят атакам, и сравним устойчивость open source-моделей и проприетарных.
Виды атак, которые будут изучены: adversarial-атака с суффиксами, конкатенация промптов, token smuggling attack, DAN/Aim/DevMode, обфускация и виртуализация.
С каждым годом докладов в секции «Нейронные сети, искусственный интеллект» становится все больше и больше. Программный комитет Saint HighLoad++ 2024 сейчас вовсю отбирает самые актуальные доклады. Приходите послушать 24 и 25 июня в Design District DAA (Санкт-Петербург)