machine-learning - GridSearch 和 Keras 的不同指标:实际返回的是哪一个
问题描述
在 GridSearchCV/RandomizedSearchCV 期间,我们有不同的选项可用于评分,“准确度”是最受欢迎的。但是,在不平衡类的情况下,诸如“f1_macro”之类的指标更合适。当我们使用 Keras 时,我们可以选择compile
行中的任何指标,但是没有“f1_macro”或“f1_micro”可用。如果使用 GridSearch 中的“f1_macro”和 GridSearch 中的“accuracy” .compile
,输入后实际返回的分数是.best_score_
多少?我们是否必须在create_model
GridSearch 和 GridSearch 中使用相同的指标,或者我们可以安全地忽略 GridSearch 中的指标compile
?
谢谢你。
解决方案
推荐阅读
- android - On Android devices, how do you set a notification sound from a ringtone? The existing sounds aren't good enough
- javascript - React.js uncaught Typing error tolowercase() function
- google-chrome-extension - Chrome Extension Popup z-index
- pyautogui - Pyautogui点击速度
- python - 如何组合 3 个列表来创建一个具有一个键和两个值的字典?
- apache-kafka - Kafka Streams (2.6) 备用副本在滚动重启时的预期行为
- python - 从 CSV 文件创建目录并只获取一个
- java - 带有列表列表的 Spring Boot unmarshal xml 失败
- common-lisp - Graham ANSI Common Lisp 6.6 函数构建器:组合的递归实现?
- r - 如何用ggplot2可视化R中的协方差?