machine-learning - 具有隐式时间分量的分类问题
问题描述
大多数分类问题没有时间元素。例如。图像识别。
因此,LR、Random Forrest 或神经网络等分类算法的应用非常简单。然而,一些分类问题具有隐含的时间分量。例如。流失分类/默认分类。也就是说,这不仅仅是流失/不流失的问题,最重要的是何时!
过去,我们所做的是将时间窗口离散化。也就是说,如果我们要预测下个月的流失率,并且如果客户已经活跃了 12 个月并在第 13 个月期间流失,我们将为该客户创建 13 行。其中 12 个将非流失作为响应,1 个将流失作为响应。
我们显然可以为这类问题拟合生存模型,但我对 ML 算法更感兴趣。
我们能否找出机器学习/深度学习领域中是否有方法来处理这个问题?
解决方案
有一整套深度学习架构可以处理时间序列。
他们每次做出预测时都会处理一系列数据,并拥有一种内部记忆来提醒过去的重要内容。
这些神经网络称为循环神经网络 (RNN)。最成功的 RNN 称为长短期记忆网络(LSTM)。
在这里您可以找到带有 keras 的代码: https ://machinelearningmastery.com/time-series-prediction-lstm-recurrent-neural-networks-python-keras/
推荐阅读
- c# - Grpc.Core 更新到 2.23,System.MissingMethodException: Method not found: Void Grpc.Core.ClientBase`1..ctor(Grpc.Core.Channel)
- keras - 如何制作 N 个相同模型的副本并分别训练?
- c# - 默认情况下如何插入用户(客户端)条目?
- python - 如何修复错误 *No module named 'lgsvl',在运行用于运行 LG 模拟器的 python 脚本后?
- java - 运行 Hazelcast 演示应用程序时出现问题
- at-command - 如何解决 at+cmss 命令返回错误?
- python - requests.get() 在 aws lambda 中引发异常
- ios - 将深度数据(16 位深度)作为辅助数据存储在 JPEG 文件中
- android - 如何在框架布局下方动态添加线性布局?
- python - 为分割掩码的颜色映射矢量化像素分配