首页 > 解决方案 > 谷歌变压器架构(注意力就是你所需要的),它对时间序列问题有好处吗?

问题描述

我已经阅读了关于 Transformer Architecture 的论文。GRU/LSTM 在时间序列问题上做得很好。我想知道是否有人使用 Transformers 来解决时间序列问题。

标签: machine-learningdeep-learningnlp

解决方案


是的,在过去的 2 年中,已经有几篇论文使用 Transformer 架构解决跨业务领域的时间序列问题。与现有模型相比,这些已被发现工作得特别好。例如,请参阅医学领域中的一个这样的用例 - https://arxiv.org/pdf/2001.08317.pdf。这是一个更通用的文章:https ://towardsdatascience.com/attention-for-time-series-classification-and-forecasting-261723e0006d


推荐阅读