- Дата публикации
Google показала TimesFM 2.5: 200 млн параметров и 16k контекста для временных рядов
Что появилось / что изменилось
Google Research обновила свою фаундейшн-модель для временных рядов TimesFM до версии 2.5. Это не коммерческий продукт Google, а открытая исследовательская разработка, но код и веса доступны на GitHub.
Ключевые изменения по сравнению с TimesFM 2.0:
- Размер модели уменьшился с 500 млн до 200 млн параметров.
- Максимальная длина контекста выросла с 2048 до 16 000 точек.
- Появилась поддержка непрерывного квантильного прогноза до горизонта 1000 шагов через отдельную «голову» на 30 млн параметров.
- Исчез индикатор частоты (frequency indicator) — модель больше не опирается на этот входной сигнал.
- Добавили несколько новых флагов, влияющих на режимы прогнозирования.
- Вернули поддержку ковариат через XReg (дополнительные признаки, влияющие на ряд: акции, погода, промокампании и т.п.).
Параллельно Google обновила API для инференса и готовит версию TimesFM на Flax для более быстрого выполнения.
Как это работает
TimesFM — это предобученная фаундейшн‑модель для временных рядов. Она получает на вход длинную последовательность значений и предсказывает продолжение ряда на заданный горизонт.
Модель использует архитектуру, похожую на большие языковые модели, но обучена не на текстах, а на временных рядах из разных доменов. За счёт этого она умеет обобщать между задачами: от продаж до показателей IoT.
Что изменили технически в 2.5:
- Урезали основной корпус до 200 млн параметров, чтобы облегчить запуск на обычных GPU и сократить время инференса.
- Увеличили контекст до 16k — можно скармливать гораздо более длинную историю без нарезки на куски.
- Вынесли квантильный прогноз в дополнительную голову на 30 млн параметров: при необходимости вы получаете не только «одну линию прогноза», а распределение значений по квантилям до горизонта 1000 шагов.
- Убрали частотный индикатор, что снижает количество ручной разметки и предпроцессинга.
- Через XReg модель умеет принимать дополнительные признаки: вы сами задаёте матрицу регрессоров и включаете соответствующий extras при установке.
Инференс работает поверх PyTorch или Flax/JAX. Репозиторий предлагает три базовых варианта установки: .[torch], .[flax] или .[xreg]. Для ускорения подсчётов можно подключить свой backend под CPU, GPU, TPU или Apple Silicon.
Что это значит для вас
TimesFM 2.5 — инструмент для тех, кто регулярно строит прогнозы по временным рядам и уже умеет писать код на Python.
Когда модель полезна:
- Прогноз спроса и продаж. Длинный контекст в 16k позволяет учитывать несколько сезонов, акции и сильные тренды, особенно в связке с XReg.
- Финансовые и риск‑модели. Квантильный прогноз до 1000 шагов даёт не только ожидаемое значение, но и возможные диапазоны — удобно для стресс‑сценариев.
- Инфраструктурные метрики. Нагрузки на серверы, энергопотребление, логирование — можно кормить длинную историю без жёсткой агрегации.
- IoT и промышленность. Наблюдения с датчиков, где важно видеть аномалии и возможный диапазон значений, а не единственный прогноз.
Когда TimesFM может не подойти:
- Если вам нужен «один клик» без кода и без понимания временных рядов, придётся искать облачный сервис с интерфейсом, а не библиотеку.
- Если вы работаете с конфиденциальными данными и не хотите выгружать их наружу, придётся запускать TimesFM локально и самим управлять инфраструктурой.
- Если у вас очень маленькие ряды (десятки точек) и простой горизонт прогноза, классические ARIMA/Prophet могут быть проще и дешевле в поддержке.
Репозиторий и пакет доступны напрямую на GitHub и через pip. Для доступа не нужен VPN, но реальные ограничения зависят от вашей сети и политики компании.
Место на рынке
TimesFM 2.5 — это не конкурент GPT‑5 или Claude 4: Google решает здесь другую задачу. Модель заточена под числовые последовательности, а не под текст, код или мультимодальные сценарии.
По позиционированию TimesFM ближе к узкоспециализированным библиотекам для временных рядов — Prophet, классические модели в statsmodels, глубокие модели из PyTorch‑экосистемы. В отличие от них, Google предлагает крупную заранее обученную фаундейшн‑модель, которую вы подключаете почти как готовый сервис.
По сравнению с типичными LLM‑подходами к прогнозу (когда временной ряд превращают в текст и скармливают GPT‑модели) TimesFM выигрывает по нескольким осям:
- не требует конвертации чисел в текст и обратно;
- поддерживает 16k точек контекста «как есть», без токенизации;
- даёт квантильный прогноз до 1000 шагов отдельной головой вместо костылей в виде промптов.
Чётких цифр по скорости и качеству на общих бенчмарках Google не приводит, но сама архитектура с 200 млн параметров и отдельной квантильной головой выглядит разумным компромиссом для развёртывания в корпоративной среде без огромных GPU‑кластеров.