Дата публикации
ai_products

Google показала TimesFM 2.5: 200 млн параметров и 16k контекста для временных рядов

Что появилось / что изменилось

Google Research обновила свою фаундейшн-модель для временных рядов TimesFM до версии 2.5. Это не коммерческий продукт Google, а открытая исследовательская разработка, но код и веса доступны на GitHub.

Ключевые изменения по сравнению с TimesFM 2.0:

  • Размер модели уменьшился с 500 млн до 200 млн параметров.
  • Максимальная длина контекста выросла с 2048 до 16 000 точек.
  • Появилась поддержка непрерывного квантильного прогноза до горизонта 1000 шагов через отдельную «голову» на 30 млн параметров.
  • Исчез индикатор частоты (frequency indicator) — модель больше не опирается на этот входной сигнал.
  • Добавили несколько новых флагов, влияющих на режимы прогнозирования.
  • Вернули поддержку ковариат через XReg (дополнительные признаки, влияющие на ряд: акции, погода, промокампании и т.п.).

Параллельно Google обновила API для инференса и готовит версию TimesFM на Flax для более быстрого выполнения.

Как это работает

TimesFM — это предобученная фаундейшн‑модель для временных рядов. Она получает на вход длинную последовательность значений и предсказывает продолжение ряда на заданный горизонт.

Модель использует архитектуру, похожую на большие языковые модели, но обучена не на текстах, а на временных рядах из разных доменов. За счёт этого она умеет обобщать между задачами: от продаж до показателей IoT.

Что изменили технически в 2.5:

  • Урезали основной корпус до 200 млн параметров, чтобы облегчить запуск на обычных GPU и сократить время инференса.
  • Увеличили контекст до 16k — можно скармливать гораздо более длинную историю без нарезки на куски.
  • Вынесли квантильный прогноз в дополнительную голову на 30 млн параметров: при необходимости вы получаете не только «одну линию прогноза», а распределение значений по квантилям до горизонта 1000 шагов.
  • Убрали частотный индикатор, что снижает количество ручной разметки и предпроцессинга.
  • Через XReg модель умеет принимать дополнительные признаки: вы сами задаёте матрицу регрессоров и включаете соответствующий extras при установке.

Инференс работает поверх PyTorch или Flax/JAX. Репозиторий предлагает три базовых варианта установки: .[torch], .[flax] или .[xreg]. Для ускорения подсчётов можно подключить свой backend под CPU, GPU, TPU или Apple Silicon.

Что это значит для вас

TimesFM 2.5 — инструмент для тех, кто регулярно строит прогнозы по временным рядам и уже умеет писать код на Python.

Когда модель полезна:

  • Прогноз спроса и продаж. Длинный контекст в 16k позволяет учитывать несколько сезонов, акции и сильные тренды, особенно в связке с XReg.
  • Финансовые и риск‑модели. Квантильный прогноз до 1000 шагов даёт не только ожидаемое значение, но и возможные диапазоны — удобно для стресс‑сценариев.
  • Инфраструктурные метрики. Нагрузки на серверы, энергопотребление, логирование — можно кормить длинную историю без жёсткой агрегации.
  • IoT и промышленность. Наблюдения с датчиков, где важно видеть аномалии и возможный диапазон значений, а не единственный прогноз.

Когда TimesFM может не подойти:

  • Если вам нужен «один клик» без кода и без понимания временных рядов, придётся искать облачный сервис с интерфейсом, а не библиотеку.
  • Если вы работаете с конфиденциальными данными и не хотите выгружать их наружу, придётся запускать TimesFM локально и самим управлять инфраструктурой.
  • Если у вас очень маленькие ряды (десятки точек) и простой горизонт прогноза, классические ARIMA/Prophet могут быть проще и дешевле в поддержке.

Репозиторий и пакет доступны напрямую на GitHub и через pip. Для доступа не нужен VPN, но реальные ограничения зависят от вашей сети и политики компании.

Место на рынке

TimesFM 2.5 — это не конкурент GPT‑5 или Claude 4: Google решает здесь другую задачу. Модель заточена под числовые последовательности, а не под текст, код или мультимодальные сценарии.

По позиционированию TimesFM ближе к узкоспециализированным библиотекам для временных рядов — Prophet, классические модели в statsmodels, глубокие модели из PyTorch‑экосистемы. В отличие от них, Google предлагает крупную заранее обученную фаундейшн‑модель, которую вы подключаете почти как готовый сервис.

По сравнению с типичными LLM‑подходами к прогнозу (когда временной ряд превращают в текст и скармливают GPT‑модели) TimesFM выигрывает по нескольким осям:

  • не требует конвертации чисел в текст и обратно;
  • поддерживает 16k точек контекста «как есть», без токенизации;
  • даёт квантильный прогноз до 1000 шагов отдельной головой вместо костылей в виде промптов.

Чётких цифр по скорости и качеству на общих бенчмарках Google не приводит, но сама архитектура с 200 млн параметров и отдельной квантильной головой выглядит разумным компромиссом для развёртывания в корпоративной среде без огромных GPU‑кластеров.


Читайте также

Google показала TimesFM 2.5: 200 млн параметров и 16k контекста для временных рядов — VogueTech | VogueTech