python - 使用 Numpy 为 sklearn 设置良好的随机化环境
问题描述
我想知道是否有优化随机环境的最佳实践。目前我在我的配置中使用这个简单的结构:
from numpy.random import Generator, PCG64
rng = Generator(PCG64(42))
np.random.seed(42)
rng
生成器:所有通用目的(按照特定分布绘制、索引排列、合成数据点等)- legacy为生成器的方法
np.random.seed
设置 scipy 的随机状态。rvs
scipy.stats
我在 sklearn 文档(此处的警告部分)的某处读到该sklearn.model_selection
模块使用 scipy 的全局种子,那将是全局种子集,np.random.seed
不是吗?
如果您对 scipy 和 sklearn 如何引用全局种子以及什么是好的默认随机化设置有更好的了解,那将非常有用。我已经阅读了与此相关的文档,但有矛盾的迹象:为了保持一致,每次都应该将种子传递给random_state
参数(与np.random.RandomState()
类一起),但他们也说如果None
传递了它将寻找全局 np 种子。但是,使用最后一个选项,我无法清楚地看到一致的行为,并且第二个选项非常冗长。
任何想法 ?
解决方案
推荐阅读
- node.js - 有没有办法通过邮递员使用表单数据发送两个具有不同密钥的文件?
- authentication - 用户无法为 _session 进行身份验证
- c# - 获取故障转移集群中角色的 IP 地址
- excel - 如何使用 vba、vlookup 将工作 excel 表复制到另一个工作簿
- tensorflow - 如何在使用 tensorflow 版本 1 时在激活前后应用批量标准化
- flutter - 滑块 onChangeEnd 属性无法正常工作
- haskell - 如何在 Haskell 中执行递归主函数
- h2 - 无法从 Jaspersoft 服务器连接到 H2 数据库
- laravel - Lumen 首次 api 请求调用耗时太长
- python - vscode从python脚本中获取当前文件的路径