python - 在 Keras 中形成多输入 LSTM
问题描述
我正在尝试使用神经网络从共振能量中预测中子宽度(我对 Keras/NNs 很陌生,所以提前道歉)。
据说共振能量和中子宽度之间存在联系,并且能量单调增加之间的相似性可以类似于时间序列问题进行建模。
本质上,我有两列数据,第一列是共振能量,另一列包含每行各自的中子宽度。我决定使用 LSTM 层通过利用以前的计算来帮助网络预测。
从各种教程和其他答案中,使用“look_back”参数似乎很常见,以允许网络在创建数据集时使用以前的时间步来帮助预测当前时间步,例如
trainX, trainY = create_dataset(train, look_back)
我想问一下关于形成NN的问题:
1)鉴于我的特定应用,我是否需要将每个共振能量明确映射到同一行上相应的中子宽度?
2) Look_back 表示 NN 可以使用多少个先前的值来帮助预测当前值,但是它是如何与 LSTM 层结合的呢?即我不太明白如何使用两者?
3) 我在什么时候反转 MinMaxScaler?
这是主要的两个查询,因为 1)我认为不可以,因为 2)我相信这是可能的,但我真的不明白如何。我无法完全弄清楚我在代码中做错了什么,理想情况下,我想在代码工作后绘制预测与火车中参考值的相对偏差并测试数据。任何建议将不胜感激:
import numpy
import matplotlib.pyplot as plt
import pandas
import math
from keras.models import Sequential
from keras.layers import Dense, LSTM, Dropout
from sklearn.preprocessing import MinMaxScaler
from sklearn.metrics import mean_squared_error
# convert an array of values into a dataset matrix
def create_dataset(dataset, look_back=1):
dataX, dataY = [], []
for i in range(len(dataset) - look_back - 1):
a = dataset[i:(i + look_back), 0]
dataX.append(a)
dataY.append(dataset[i + look_back, 1])
return numpy.array(dataX), numpy.array(dataY)
# fix random seed for reproducibility
numpy.random.seed(7)
# load the dataset
dataframe = pandas.read_csv('CSVDataFe56Energyneutron.csv', engine='python')
dataset = dataframe.values
print("dataset")
print(dataset.shape)
print(dataset)
# normalize the dataset
scaler = MinMaxScaler(feature_range=(0, 1))
dataset = scaler.fit_transform(dataset)
print(dataset)
# split into train and test sets
train_size = int(len(dataset) * 0.67)
test_size = len(dataset) - train_size
train, test = dataset[0:train_size, :], dataset[train_size:len(dataset), :]
# reshape into X=t and Y=t+1
look_back = 3
trainX, trainY = create_dataset(train, look_back)
testX, testY = create_dataset(test, look_back)
# reshape input to be [samples, time steps, features]
trainX = numpy.reshape(trainX, (trainX.shape[0], look_back, 1))
testX = numpy.reshape(testX, (testX.shape[0],look_back, 1))
# # create and fit the LSTM network
#
number_of_hidden_layers=16
model = Sequential()
model.add(LSTM(6, input_shape=(look_back,1)))
for x in range(0, number_of_hidden_layers):
model.add(Dense(50, activation='relu'))
model.add(Dense(1))
model.compile(loss='mean_squared_error', optimizer='adam')
history= model.fit(trainX, trainY, nb_epoch=200, batch_size=32)
trainPredict = model.predict(trainX)
testPredict = model.predict(testX)
print('Train Score: %.2f MSE (%.2f RMSE)' % (trainScore, math.sqrt(trainScore)))
testScore = model.evaluate(testX, testY, verbose=0)
print('Test Score: %.2f MSE (%.2f RMSE)' % (testScore, math.sqrt(testScore)))
解决方案
1)鉴于我的特定应用,我是否需要将每个共振能量明确映射到同一行上相应的中子宽度?
是的,你必须这样做。基本上你的数据必须是一个形状。X=[时间步长,时间步长,...] y=[标签,标签,...]
2) Look_back 表示 NN 可以使用多少个先前的值来帮助预测当前值,但是它是如何与 LSTM 层结合的呢?即我不太明白如何使用两者?
LSTM 是一个序列感知层。您可以将其视为隐藏马尔可夫模型。它需要第一个时间步,计算一些东西,然后在下一个时间步中考虑先前的计算。Look_back,通常称为sequence_length,只是最大时间步数。
3) 我在什么时候反转 MinMaxScaler?
你为什么要这样做?此外,您不需要扩展输入。
您的模型似乎有一个普遍的误解。如果你有input_shape=(look_back,1)
,你根本不需要 LSTM。如果您的序列只是单个值的序列,则最好避免使用 LSTM。此外,拟合您的模型应该包括在每个 epoch 之后进行验证,以跟踪损失和验证性能。
model.fit(x_train, y_train,
batch_size=32,
epochs=200,
validation_data=[x_test, y_test],
verbose=1)
推荐阅读
- java - 为什么我的 Spring Boot POST 会输出“Whitelabel Error Page”?
- angular - Angular 8 @ViewChild 模板变量错误 - 无法读取未定义的属性“nativeElement”
- java - 如何使用 Java 8 在对象列表中获取内部对象的成员
- flutter - 为什么负数的模为正(-7 % 6 == 5)?
- pandas - 如何使用基于涉及整行和先验数据的滚动自定义函数的 Pandas 向量方法
- python - 运行此 Python 代码时面临问题
- python - 如何使用 Hy 模块创建 Python 独立可执行文件?
- c# - 多个表离线同步 Xamarin.Forms & Azure
- c# - 有没有一种方法可以在不向其添加数据的情况下创建数据库 ef 代码优先
- javascript - 更新 state 中数组的状态