python - seq-to-seq LSTM 在低频简单正弦波上的性能不佳
问题描述
我正在尝试在一个简单的正弦波上训练一个seq-to-seq模型。目标是获取数据点Nin
并预测Nout
下一个数据点。任务似乎很简单,模型对大频率freq
(y = sin(freq * x))的预测效果很好。例如,对于freq=4
,损失非常低,预测非常接近目标。然而,对于低频,预测是不好的。关于模型为什么失败的任何想法?
from tensorflow.keras.models import Model
from tensorflow.keras.layers import Input, LSTM, RepeatVector, TimeDistributed, Dense
freq = 0.25
Nin, Nout = 14, 14
# Helper function to convert 1d data to (input, target) samples
def windowed_dataset(y, input_window = 5, output_window = 1, stride = 1, num_features = 1):
L = y.shape[0]
num_samples = (L - input_window - output_window) // stride + 1
X = np.zeros([input_window, num_samples, num_features])
Y = np.zeros([output_window, num_samples, num_features])
for ff in np.arange(num_features):
for ii in np.arange(num_samples):
start_x = stride * ii
end_x = start_x + input_window
X[:, ii, ff] = y[start_x:end_x, ff]
start_y = stride * ii + input_window
end_y = start_y + output_window
Y[:, ii, ff] = y[start_y:end_y, ff]
return X, Y
# The input shape is your sequence length and your token embedding size
inputs = Input(shape=(Nin, 1))
# Build a RNN encoder
encoder = LSTM(128, return_sequences=False)(inputs)
# Repeat the encoding for every input to the decoder
encoding_repeat = RepeatVector(Nout)(encoder)
# Pass your (5, 128) encoding to the decoder
decoder = LSTM(128, return_sequences=True)(encoding_repeat)
# Output each timestep into a fully connected layer
sequence_prediction = TimeDistributed(Dense(1, activation='linear'))(decoder)
model = Model(inputs, sequence_prediction)
model.compile('adam', 'mse') # Or categorical_crossentropy
y = np.sin(freq * np.linspace(0, 10, 1000))[:, None]
Ntr = int(0.8 * y.shape[0])
y_train, y_test = y[:Ntr], y[Ntr:]
from generate_dataset import *
stride = 1
N_features = 1
Xtrain, Ytrain = windowed_dataset(y_train, input_window=Nin, output_window=Nout, stride=stride,
num_features=N_features)
print(model.summary())
Xtrain, Ytrain = Xtrain.transpose(1, 0, 2), Ytrain.transpose(1, 0, 2)
print("Xtrain", Xtrain.shape)
model.fit(Xtrain, Ytrain, epochs=30)
plt.figure(); plt.plot(y, 'ro')
for Ns in arr([10, 50, 200, 400, 800, 1500, 3000]) // 10:
ypred = model.predict(Xtrain[[Ns]])
print("ypred", ypred.shape)
ypred = ypred[-1]
plt.figure()
plt.plot(ypred, 'ro')
plt.plot(Xtrain[Ns], 'm--')
plt.plot(Ytrain[Ns], 'k.')
plt.show()
exit()
解决方案
我认为因为你得到的模式越低,它得到的模式就越少。Ea 认为它是因为您在 X 输入上获得了一个模式来预测下一个输出。尽管 al x(n) 输入值略有上升,但几乎没有规律。之前也发生了轻微的上涨,所以没有学到新的东西,也没有学到新的模式。将其视为经过的 x 波需要更长的训练时间才能算作一个模式。
不过,如果您接受相同数量的培训,这很有趣。但是在罪恶线上向前跳过,或者更容易,使用你好的工作模型,然后用分开的输入来测试它。ea:如果你用 5,10,15,20,25 等度数训练它。给这个训练过的网络 0.05 0.10 度数(ea 只改变输入,但保留网络)。
恢复序列训练器网络在具有语言文本预测等模式的数据上运行良好,但不适用于具有少量模式的数据。
---编辑--(评论回复太长)--
是的,很难调试神经网络,虽然我认为你必须回到基本原则,是一个上升信号一个模式,它只能被检测到它在训练中上下提升(足够)。Rnn 和 lstms 在串行模式和 asci 字符串中表现良好,对于测试用例而言,缓慢滑动的数字几乎不是内存中可以参考的模式。也许你可以通过改变训练样本顺序来改进这里,所以在正弦波上取一个随机位置,因为内部“缩小/接近”误差校正可能会过度说服某个方向,导致它的最后 70 个样本上升,为什么 71下去。更好地处理它。
推荐阅读
- node.js - mongoose 修复了唯一且稀疏的索引,并且可以采用空值
- c++ - glm::lookat,OpenGL 中的透视澄清
- ms-access - 如何使用组合框在 Ms Access 中打开特定表单
- c - 在c中加倍的数字字符串
- jenkins - 部署到容器插件(1.13)在构建后操作下不提供管理员用户名和密码
- javascript - 页面加载后表单提交按钮无法立即工作
- performance - 为什么 Android Studio 运行这么慢?
- php - 查询不能正常工作。插入查询工作正常,但其他三个查询不能正常工作,发生错误
- javascript - 单击时,将搜索图标更改为关闭图标
- javascript - Javascript 在 Safari 中不起作用