首页 > 解决方案 > 如何在随机数据实验中减少损失并提高准确性?

问题描述

我刚刚踏入深度学习的世界并做了一些小实验来学习如何调整模型以减少损失并提高准确性,无论我尝试了多少方法(添加层、神经元等)但仍然无法达到我的目标目标...任何人都可以给我一些提示和建议吗?谢谢!

注意:因为我之前做了一个又大又丑的模型,数据无法拟合模型(即:准确率没有增加),所以只是做了一个简单的测试来学习如何调整模型,顺便说一句在这个模型中,我的数据非常类似于这个小实验数据(股市数据,非常随机),所以尝试使用这些数据来了解更多......谢谢!

这是我的代码,非常简单:

import pandas as pd
from tensorflow.keras import layers
from sklearn.preprocessing import StandardScaler

x1 = pd.DataFrame(np.round(np.random.rand(100, 2)*100,0))
y1 = pd.DataFrame(np.round(np.random.rand(100, 1)*100,0))
scale = StandardScaler() #z-scaler物件
xx1 = pd.DataFrame(scale.fit_transform(x1), columns=x1.keys())
yy1 = pd.DataFrame(scale.fit_transform(y1), columns=y1.keys())
the_input =  keras.Input(shape=(2))
x = layers.Dense(500)(the_input)
for i in range(50):
    x = layers.Dense(500, activation='linear')(x)
    if i%5 ==0 : x = layers.LayerNormalization(axis=1)(x)

main_output_1 = layers.Dense(1, name='mo_1')(x)
model = keras.Model(inputs=the_input, outputs=main_output_1, name='DELS_model')
model.compile(loss="mean_squared_error", optimizer='RMSprop', metrics=['accuracy'])

标签: tensorflowdeep-learning

解决方案


推荐阅读