machine-learning - 了解 LSTM 自编码器的输出并用它来检测序列中的异常值
问题描述
我尝试构建 LSTM 模型,该模型作为输入接收整数序列并输出每个整数出现的概率。如果这个概率很低,那么这个整数应该被认为是异常的。我尝试遵循本教程 - https://towardsdatascience.com/lstm-autoencoder-for-extreme-rare-event-classification-in-keras-ce209a224cfb,尤其是我的模型来自的地方。我的输入如下所示:
[[[3]
[1]
[2]
[0]]
[[3]
[1]
[2]
[0]]
[[3]
[1]
[2]
[0]]
但是我无法理解我作为输出获得了什么。
[[[ 2.7052343 ]
[ 1.0618575 ]
[ 1.8257084 ]
[-0.54579014]]
[[ 2.9069736 ]
[ 1.0850943 ]
[ 1.9787762 ]
[ 0.01915958]]
[[ 2.9069736 ]
[ 1.0850943 ]
[ 1.9787762 ]
[ 0.01915958]]
是重构错误吗?或者每个整数的概率?如果是这样,为什么它们不在 0-1 的范围内?如果有人能解释这一点,我将不胜感激。
该模型:
time_steps = 4
features = 1
train_keys_reshaped = train_integer_encoded.reshape(91, time_steps, features)
test_keys_reshaped = test_integer_encoded.reshape(25, time_steps, features)
model = Sequential()
model.add(LSTM(32, activation='relu', input_shape=(time_steps, features), return_sequences=True))
model.add(LSTM(16, activation='relu', return_sequences=False))
model.add(RepeatVector(time_steps)) # to convert 2D output into expected by decoder 3D
model.add(LSTM(16, activation='relu', return_sequences=True))
model.add(LSTM(32, activation='relu', return_sequences=True))
model.add(TimeDistributed(Dense(features)))
adam = optimizers.Adam(0.0001)
model.compile(loss='mse', optimizer=adam)
model_history = model.fit(train_keys_reshaped, train_keys_reshaped,
epochs=700,
validation_split=0.1)
predicted_probs = model.predict(test_keys_reshaped)
解决方案
推荐阅读
- math - 有没有办法使用一些矩阵向量运算找到二进制向量的“不”?
- python - Python如何从excel转换日期值
- magento - Magento2 cms_index_index.xml 中的 og:image 标签(开发者模式)
- java - 如何让 Java 或 Java 的 Graphics2D 使用 Graphics 卡?
- javascript - 是否可以防止 Ionic 隐藏上一页?
- wavesplatform - 如何配置 WAVES 客户端以使用 TESTNET?
- c++ - 特征乘法断言失败
- angular - 未捕获的类型错误:无法读取未定义的属性“存储”
- objective-c - 为什么在 Objective-C 上 initWithFrame 中的属性为空?
- c++ - 为项目文本文件定义宏