正文
图1: 研究背景
时间序列预测(TSF)是金融、能源、医疗等众多领域的基石性任务,其核心目标是基于历史观测和辅助信息预测目标变量的未来轨迹。尽管现有方法(从经典统计模型到现代深度学习)已取得显著成效,但它们大多遵循“快思考”范式,即通过单步推断直接映射输入到输出,缺乏中间的、显式的推理步骤。
与此同时,具备多步推理能力的“慢思考”大语言模型(如ChatGPT-01, DeepSeek-R1)在不同领域展示了令人印象深刻的性能 。这启发了一个关键问题:
“慢思考”大语言模型能否有效地对时间模式进行推理,以支持时间序列预测,即便是在零样本的情况下?
为此,研究团队提出了TimeReasoner,将TSF重新表述为一个条件推理任务,系统性地探究LLMs在时序数据中的推理行为。
模型方法
图2: TimeReasoner 框架图
TimeReasoner 将时间序列预测构建为一个条件推理问题,其中LLM通过解释结构化的自然语言提示来生成预测。其核心框架(如图2所示)包含以下关键组成部分:
1. 混合指令 (Hybrid Instructions)
为了支持有效的时序推理,TimeReasoner 采用多模态提示,结合了:
-
原始尺度时间序列 (Raw time series in original
space
)
:
直接使用未经归一化的原始数据,保留数值的真实幅度和波动信息,便于模型理解绝对值和真实世界变化。
-
时间戳特征 (Timestamp feature)
:
引入原始时间戳,使模型能够识别绝对时间位置(如特定日期或小时)和相对模式(如周期性或时间间隔),这对于时序推理至关重要。
-
上下文特征描述 (Contextual feature descriptions)
:
提供自然语言描述的上下文信息,如领域知识和通道特定语义,帮助LLM将数值数据与现实世界含义对齐,增强任务相关性和可解释性。
2. 推理策略 (Reasoning Strategies)
TimeReasoner 探索了三种不同的推理范式,以评估“慢思考”LLMs的能力:
-
单次推理 (One-Shot Reasoning)
:
LLM对给定输入执行一次全面的推理过程,内部完成所需的多步逻辑,并直接输出完整的预测结果集。
-
解耦推理 (Decoupled Reasoning)
:
LLM的目标是生成一个全面的输出,但其过程是解耦的。模型生成部分思考,进行反思,然后继续,在单次推理中形成“生成-反思-生成”的循环,以实现更精细的多步推理。
-
滚动推理 (RollOut Reasoning)
:
LLM增量式地生成预测,每一步产生结果的一部分。这个过程涉及多个迭代轮次,每个输出都作为下一个输出的上下文,使模型逐步构建最终的完整结果。