Внедрение LLM в корпоративные процессы управления данными (Data Governance) часто превращается в хаос: непредсказуемые ответы, галлюцинации моделей и абсолютная невозможность выпустить такое решение в прод из-за жестких требований информационной безопасности (ИБ).
Мы прошли путь от ручного тегирования данных до создания методологии AI Flow, которая превращает вероятностную «магию» нейросетей в предсказуемый и надежный конвейер обогащения метаданных.
В докладе я расскажу:
- Как мы ушли от ненадежных автономных агентов («Agentic AI») к детерминированным цепочкам задач (AI Flow) со строгими типизированными контрактами на стыках.
- Как "научить" локальные модели решать задачи Data Governance и сравним их производительность и точность с Gemini.
- Почему подходы, работающие на тяжелых облачных моделях, не работают на локальных LLM.
- Разберем архитектуру системы автоматической классификации чувствительных данных - DPO-copilot.