machine-learning - GCP 的 CPU 使用率低
问题描述
在 Google Cloud Platform (GCP) 上,我有以下规格:
- 机器类型:n1-standard-8(8 个 vCPU,30 GB 内存)
- CPU平台:英特尔Haswell
我正在使用 Jupyter Notebook 将 SVM 拟合到大量 NLP 数据。这个过程非常缓慢,根据 GCP,我只使用了大约0.12% 的 CPU
如何提高 CPU 利用率?
解决方案
正如 DazWilkin 实际上提到的那样,您使用的是 12% (12/100)。这对应于一个 vCPU。这是因为 -- IIRC -- Jupyter 是一个 Python 应用程序和 Python 的单线程,所以你只能使用一个内核。您可以减少内核数量(当然,操作系统将使用多个内核)以节省一些钱,但您需要评估替代方案以使用更多内核。
推荐阅读
- scala - 不能用作模式中的提取器,因为它缺少 unapply 或 unapplySeq 方法
- css - 阻止内容溢出固定的 div?
- linux - 在for循环中使用grep从文件中提取行,导出到文件名中带有变量的新文件
- javascript - 我如何了解用户已在其 Android 设备上禁用地理定位?JS
- core-plot - SwiftUI IOS 动态 CorePlot 数据
- microsoft-graph-api - 如何使用图形 api 为 2 个不同的收件人发送具有不同内容的电子邮件
- wordpress - 使用 Wordpress 的 Twitter 大图像
- reactjs - getDerivedStateFromProps 之前的静态关键字
- api - Github Gists Api Angular
- flutter - 必须初始化不可为空的实例字段“_localizedStrings”