[Time Series] Deep Learning with Time Series data

tags: Literature Reading Time Series Self-supervised Unsupervised deep learning Signal Process

AI / ML領域相關學習筆記入口頁面


彙整2022年底深度學習方法在處理時間序列資料上的資源、趨勢與SOTA模型

What is Time Series Data

Property

  • 結構化資料
    相對於語音、文字、圖像、影片等屬於非結構化資料
    • 預測任務,例如股價、天氣、電力消耗
    • 分類任務,例如
      • 聲音(鳥音、樂器)辨識、
      • 感測器資料,如穿戴裝置/手機/車用感測器的動作模式辨識
    • 異常訊號偵測,如工廠噪音
  • 每個時間點(timestamp)之間可能存在時序自相關(Temporal autocorrelation)、與週期性
  • 時間序列資料的特徵

    Time and Frequency Domain Analysis
    - Time and Frequency Domain Analysis

    Time Domain Versus the Frequency Domain
    - Teach Tough Concepts: Frequency Domain in Measurements

Signal Process

Garbage in, Garbage out, 了解傳統訊號處理、解讀、清理方式仍有必要

Resources

Open Librarys

tsai

目前支援最完整的時間序列深度學習模型資源、包含資料的前處理與視覺化

官方文件 tsai
  • 官方文件

  • SOTA

    • However, the ones that have consistently deliver the best results in recent benchmark studies are Inceptiontime (Fawaz, 2019) and ROCKET (Dempster, 2019). Transformers, like TST (Zerveas, 2020), also show a lot of promise, but the application to time series data is so new that they have not been benchmarked against other architectures.
  • Format aligment in TSAI

    • array:(sample, n_var, t_step)
    • df format:
      • cols = [sample, feature, t_step]
      • df2xy()

tslearn

支援一些ml的方法,近年缺乏維護

官方文件 tslearn

Open Datasets

Paper and Code survey

期刊與研討會等級

  • 資源整理:跟上AI前沿知識
    • arXiv
      • 通常在arXiv上幾乎可以搜到所有AI領域重要的論文,而且還可以拿到第一手的論文,但是arXiv並沒有嚴格的審核機制,所以在尚未經過其他研討會和期刊審核過之前務必要對內容執懷疑的態度。
    • h-index
      • 代表所有發表論文中至少有h篇分別被引用了至少h次;
    • h-median
      • 代表被引用最多的h篇(由h-index決定)論文當中引用次數的中位數。舉例:一個研討會有五篇文章,其被引用次數如下:17, 9, 6, 3, 2,其h-index為3,所以其具影響力的h篇文章被引用數如下:17, 9, 6,因此中位數9就是h-median。

paperwithcodes

  • 查找相關paper及github好用
  • 有些paper在arxiv未必會放上官方code

Deep learning with time series data

Paradigm Shift

  • Supervised -> Self-Supervised
    接續自監督方法在NLP與與CV領域的成功,2020年前後時間序列(TS)資料也開始採用自監督學習方法

Architecture

Self-Supervised Learning

SOTA(2022/2023)

  • 分類任務Ti-MAE與TS2Vec表現接近
  • Ti-MAE(生成式訓練)至20200年底尚未公開code,因此目前採用TS2Vec(對比式訓練)進行特徵抽取

Contrast method

2022。AAAI。TS2Vec: Towards Universal Representation of Time Series

詳見TS2Vec論文筆記

  • comment

    • 輕量、運算時間相當快、可輕易取得學習的特徵
    • 支援多變量時間序列
    • 同時透過不同層級多尺度的特徵比對提供不同層次的語意,提高特徵學習與通用化的能力
      • 時序(temporal)、不同實例(instance)
    • 但缺乏頻率方面的特徵提取?
    • performance
  • github

[2022。ICLR。Unsupervised Time-Series Representation Learning with Iterative Bilinear Temporal-Spectral Fusion(BTSF)]

  • comment
    • 透過雙向融合,同時結合時間與頻率特徵(雙線性時空融合),更好同時的捕捉頻率與時間上的全域特徵
    • 過去研究不足處
      • 多僅捕捉時域或頻域、正負樣本多沿時間軸取樣、長期預測表現不佳
    • perpormance
      • 想法不錯、但實際表現似乎沒跟近年SOTA拉開差距
      • 沒有code可參考,也未跟21年的SOTA比較(來不及放上?)

2021。ICLR。Unsupervised Representation Learning for Time Series with Temporal Neighborhood Coding(TNC)

  • comment
    • TNC 利用訊號生成過程局部平滑性來學習時間序列窗口的泛化。通過在表徵空間(latent vectors)訊號遠、近端的分布是可區分的
2019。ICLR。Unsupervised Scalable Representation Learning for Multivariate Time Series(SRL/T-Loss)
  • 在部分任務上仍勝出2021年發表的模型

  • triplet loss

  • 編碼器架構:多層堆疊的擴張卷積層stacked dilated causal CNN

  • comment

    • 透過比較相鄰(正樣本)與隨機(負樣本)的序列,學習到的表徵應該要與相鄰的樣本盡可能地接近、與隨機選取的樣本盡可能地不相似(或推遠距離)

Generative method

2023。ICLR。Ti-MAE: Self-Supervised Masked Time Series Autoencoders
​​​​![](https://i.imgur.com/V6W1H7G.png =400x)
  • comment
    • mask 採用時間同步方式
    • performance
      • (ICLR 2023 v3 修改中 pdf (openreview.net)。code尚未公開但之後值得期待)

      • 在預測、分類表現表現看來是目前SOTA

      • 分類任務與與TS2VEC沒有顯著差距

2022。_。Time Series Generation with Masked Autoencoder
​​​​![](https://i.imgur.com/5QNhl3Y.png)
  • comment
    • 應用在時間序列資料合成領域、沒有中間的抽象特徵(latent vectors)
    • github
2022。_。MTSMAE: Masked Autoencoders for Multivariate Time-Series Forecasting
​​​​![](https://i.imgur.com/vFmrQGo.png =400x)
  • comment
    • 可處裡多變量資料
    • 用在預測任務,但修改mask方式有機會適用在各種任務
    • 沒有code
2021。KDD。A Transformer-based Framework for Multivariate Time Series Representation Learning(MVP/TST/TSBERT)

Supervised Learning(待補)

Forecast task

Regression task

Classification task

Unsupervised Learning

目前趨勢是朝向結合時間與頻率域的跨模態(Cross domain)、自監督、Transformer架構為主

ML Together: Unsupervised time series clustering (part 1)

2019。ICLR。SOM-VAE: Interpretable Discrete Representation Learning on Time Series
​​​​![](https://i.imgur.com/NVZUm1b.png =400x)
  • Comment
    • 結合自組織圖(自組織圖)與生成式(VAE)的方法
2018。ICLR。Deep Temporal Clustering : Fully Unsupervised Learning of Time-Domain Features。
​​​​![](https://i.imgur.com/KrexlP3.png =400x)
  • Comment
    • 完全用時間領域的特徵
    • 特徵抽取採用autoencoder概念

EXAI for Time Series


Deep Learning相關筆記

Self-supervised Learning

Object Detection

ViT與Transformer相關

Autoencoder相關

Select a repo