首页 > 解决方案 > MLP分类器函数(scikit_learn)中的不同隐藏层是否可以有不同的激活函数?

问题描述

在下面的代码中:

mlp = MLPClassifier(hidden_layer_sizes=(450,200,100), activation='relu', alpha = 0.01, max_iter=200, solver='adam',random_state=1, early_stopping = True, verbose=True, shuffle = True)

激活函数relu用于网络中的所有隐藏层。前两个隐藏层有可能,relu最后一层有softmax吗?

标签: pythonscikit-learn

解决方案


推荐阅读