PyTorch Forecasting или строим одну большую предиктивную модель на GPU
Доклад отклонён
Целевая аудитория
Тезисы
При построении предиктивных моделей на большом массиве данных часто страдает скорость обучения. Покажем, как используем альтернативный подход для повышения точности прогнозов и ускорения обучения
Обычно для построения предиктивных моделей выбирают ARIMA-like модели, либо строят на оконных фичах и деревьях. Но в случаях, когда объем данных возрастает, добиться высоких скоростей обучения не удается даже за счет параллелизма, ведь приходится обучать каждый временной ряд отдельно.
В докладе мы обсудим альтернативный подход: обучение предиктивной модели на GPU с использованием инструментов Pytorch Forecasting и модели Temporal Fusion Transformer. Такой подход позволяет обработать любой объем данных батчами, а кроме того, зачастую демонстрирует более высокое качество предсказаний. Дополнительный плюс заключается в возможности использовать преимущество attention слоя для визуализации.
Алексей непосредственно участвовал в разработке DS-части платформ ML Space, проектировал систему запуска распределенных вычислений на суперкомпьютерах Christofari. Может рассказать про то, как нейронку на PyTorch / TensorFlow запустить на большом количестве железа. А также какие еще инструменты ML Ops могут быть полезны для работы больших команд Data Science.
Cloud
Видео
Другие доклады секции
Нейронные сети, искусственный интеллект