PyTorch Forecasting или строим одну большую предиктивную модель на GPU

Нейронные сети, искусственный интеллект

Доклад отклонён

Целевая аудитория

DS-ы

Тезисы

При построении предиктивных моделей на большом массиве данных часто страдает скорость обучения. Покажем, как используем альтернативный подход для повышения точности прогнозов и ускорения обучения

Обычно для построения предиктивных моделей выбирают ARIMA-like модели, либо строят на оконных фичах и деревьях. Но в случаях, когда объем данных возрастает, добиться высоких скоростей обучения не удается даже за счет параллелизма, ведь приходится обучать каждый временной ряд отдельно.
В докладе мы обсудим альтернативный подход: обучение предиктивной модели на GPU с использованием инструментов Pytorch Forecasting и модели Temporal Fusion Transformer. Такой подход позволяет обработать любой объем данных батчами, а кроме того, зачастую демонстрирует более высокое качество предсказаний. Дополнительный плюс заключается в возможности использовать преимущество attention слоя для визуализации.

Алексей непосредственно участвовал в разработке DS-части платформ ML Space, проектировал систему запуска распределенных вычислений на суперкомпьютерах Christofari. Может рассказать про то, как нейронку на PyTorch / TensorFlow запустить на большом количестве железа. А также какие еще инструменты ML Ops могут быть полезны для работы больших команд Data Science.

Cloud

Cloud

Видео