专栏名称: 数据派THU
本订阅号是“THU数据派”的姊妹账号,致力于传播大数据价值、培养数据思维。
目录
相关文章推荐
大数据文摘  ·  MiniMax 发布 M1 ... ·  昨天  
数据派THU  ·  【ICML2025】通过多智能体反思强化大语 ... ·  昨天  
数局  ·  艺恩:面膜行业消费趋势报告 ·  3 天前  
大数据文摘  ·  基础统计学:计算空难事件概率 ·  3 天前  
CDA数据分析师  ·  《CDA一级教材》电子版上线CDA网校,助你 ... ·  3 天前  
51好读  ›  专栏  ›  数据派THU

综述 | 一文读懂时间序列预测研究全景:方法、挑战与未来方向

数据派THU  · 公众号  · 大数据  · 2025-06-18 17:00

正文

请到「今天看啥」查看全文



2.4 多变量相关性建模复杂


多变量序列存在潜在的非线性、动态因果关系,变量间的交互往往缺乏明确先验信息。如何在数据驱动条件下学习跨通道依赖关系,是提高预测准确性的核心路径。


2.5 外生变量建模机制不足


预测结果常受外部因素影响,例如节假日、天气、政策等,这些变量具有异步性与非线性作用。目前仍缺乏统一框架来识别关键外因、动态建模其作用,并与目标序列联动优化。


2.6 数据分布漂移阻碍泛化能力


时间序列往往非平稳,不同时间段的统计特性可能发生剧烈变化。分布漂移不仅削弱模型的泛化能力,还可能导致训练数据与预测目标严重不一致,是构建健壮模型必须应对的问题。


2.7 趋势与季节性模式建模复杂


多周期叠加、突变结构、非线性趋势使得传统的趋势/季节性建模方法难以准确表达结构特性。需要更具表达能力的分解方法与数据增强策略辅助模型捕捉多级周期模式。


2.8 多尺度结构融合困难


时间序列存在局部扰动与全局趋势的多层次结构,不同粒度之间的平衡与融合直接影响预测结果。如何在建模过程中有效整合多尺度特征,是提升模型泛化与准确性的关键手段。


2.9 高计算开销限制落地效率


任务维度提升与序列延长导致预测模型计算复杂度剧增,严重影响部署与实时推理效率。在保持预测准确性的同时压缩模型结构,是工业应用中尤为关键的优化目标。


2.10 跨场景泛化与迁移能力薄弱


时间序列缺乏通用语义单元,不同任务之间变量含义、结构特性差异巨大,限制了模型的迁移与重用能力。构建可跨任务泛化的基础模型仍是当前研究的重大挑战之一。


三、数据预处理:构建高质量输入的关键步骤


高质量的输入是构建鲁棒、稳定、可泛化时间序列预测模型的基础。面对真实数据中普遍存在的缺失、噪声、分布变化等问题,科学合理的预处理流程对于提升模型性能、减少训练难度具有重要意义。


3.1 缺失值填补(Imputation)


实际采集中由于传感器故障、通信中断或外部条件影响,时间序列数据中常出现局部或结构性缺失。缺失值不仅导致上下文信息丢失,还会破坏时序结构的连续性,对模型造成严重误导。高质量填补策略不仅能够修复观测序列,还能为下游预测模型提供更完整的历史上下文:


预测式方法: 利用已有数据直接预测缺失片段,常用模型包括 RNN、Transformer 等序列建模架构;


生成式方法: 引入数据生成机制,使用 GAN、扩散模型等对缺失片段建模,能更好地量化不确定性与多样性。


3.2 去噪处理(Denoising)


即便数据无缺失,也常被设备误差、环境扰动等因素引入高频噪声,这些干扰信号会削弱模型对真实模式的学习能力。优质的去噪策略有助于模型专注于长期趋势和关键变化点,提高预测稳定性与泛化能力:


经典滤波方法: 如移动平均、高通/低通滤波,适用于平滑局部震荡;


分解型方法: 如小波变换(DWT)、经验模态分解(EMD),将序列拆解为多尺度信号,分别处理噪声;


学习型方法: 训练神经网络(如自编码器、Diffusion Model)在有噪-无噪对比中学习降噪映射函数。


3.3 标准化与稳态化(Normalization & Stationarization)


时间序列数据常存在量纲差异、尺度悬殊以及分布动态变化等问题,直接影响模型训练的收敛性与稳定性。通过合理的归一/稳态化策略,不仅提升了模型的数值稳定性,也缓解了不同通道/时间段间的分布漂移问题:


标准化(Normalization): 常用 Z-score、Min-Max 或 Log 变换,将各变量统一至可对比的数值范围;


样本归一(Instance Normalization): 如 RevIN 对每个样本进行归一与还原,减少非平稳性对模型的影响;


动态归一化方法: 如 DAIN、SAN 等,引入可学习参数,根据上下文自适应进行归一处理。


3.4 时间序列分解(Decomposition)


许多时间序列具有明确的趋势(trend)、季节性(seasonality)和噪声(residual)结构。直接预测原始序列容易混淆信号与干扰,因此将其拆解成多个结构性分量有助于建模。分解后的分量可分别建模并独立预测,最终再组合为整体结果,从而提升预测准确率与可解释性:


加性模型(EMD, STL, LMD ): 适用于成分可加的序列,结构清晰、适用面广;


乘性模型(VMD, Wavelet Transform, SSA): 适合对周期成分强的金融、气象类数据;


3.5 时序片段化表示(Tokenization)


将原始时间序列转换为模型可处理的 token 结构是近年来的研究热点,借鉴 NLP 与视觉领域的成功经验,有效提升模型的表达力与泛化能力。Tokenization 技术有效提升了输入结构的表达能力,是构建“类语言”时间序列模型的重要基础:


连续 tokenization: Point-wise方法以每个时间点作为独立 token,简单直接但信息稀疏;而Patch-wise的方法将连续时间段打包成 patch,如 PatchTST,通过学习局部上下文提升建模质量。


改进型 patchify: 如 deformable patchify 可自适应学习 patch 边界,多尺度 patchify 则引入不同尺度融合机制。


离散 tokenization: 如使用向量量化(VQ-VAE)将连续值映射为有限字典中的离散符号;或使用统计离散分桶(如按分位数)进行符号化,利于下游多模态融合与大模型建模。


3.6 频率变换(Frequency Transformation)


时间序列的周期性和局部变化在频域中具有更清晰的表现,因此频率分析在建模中具有独特优势。频率域特征不仅能增强模型对周期、节律的捕捉能力,也常作为输入分支与时域建模联合训练,提高模型整体表现:


DFT / DCT: 适用于分析平稳数据中的主频成分;


STFT: 局部滑窗处理,适合处理局部平稳但整体变化的时序;


DWT: 具备良好的时频局部性,能同时捕捉趋势与突变,广泛应用于金融与生理信号分析。


3.7 图结构建模(Graph Transformation)


多变量时间序列中,各通道间的依赖关系可能是复杂的拓扑结构,仅依靠堆叠通道建模容易忽视这种结构性。结合图神经网络(如 GCN、GAT、STGCN)可以进一步学习空间依赖与时序演化双重信息,提升模型对复杂多变量系统的理解能力:


启发式图构建: 通过先验知识、空间距离、Pearson 相关或 DTW 相似度构建静态图结构;


学习式图建模:







请到「今天看啥」查看全文