machine-learning - 谷歌变压器架构(注意力就是你所需要的),它对时间序列问题有好处吗?
问题描述
我已经阅读了关于 Transformer Architecture 的论文。GRU/LSTM 在时间序列问题上做得很好。我想知道是否有人使用 Transformers 来解决时间序列问题。
解决方案
是的,在过去的 2 年中,已经有几篇论文使用 Transformer 架构解决跨业务领域的时间序列问题。与现有模型相比,这些已被发现工作得特别好。例如,请参阅医学领域中的一个这样的用例 - https://arxiv.org/pdf/2001.08317.pdf。这是一个更通用的文章:https ://towardsdatascience.com/attention-for-time-series-classification-and-forecasting-261723e0006d
推荐阅读
- neuroscience - 如何获取 NeuroML 数据库中可用模型的完整列表?
- javascript - 为什么我不能在 Firefox Web 控制台中更改 `name` 的类型?
- python - 如何从 pyqtgraph TextItem 获取属性?
- php - 使用 rxjava 和改造从服务器获取响应
- javascript - DOMContentLoaded 在导航后未触发,但在使用 javascript_pack_tag 时在页面重新加载时触发
- selenium - 使用 selenium 下载图像的正确方法
- python - 尝试编写递归函数以迭代嵌套字典时出现 RecursionError
- python - 在 C++/Python 中为 OpenAI 训练的模型保存、读取和执行推理
- imacros - iMacros 如果标签为空值,则将其设置为默认值
- python - 尝试重试 Telnet 连接时出现“TypeError:'ConnectionAbortedError' 类型的参数不可迭代”