kubernetes - 有没有办法限制与 Spacy、Torch 等共享的 vgpu 上的 per_process 内存?
问题描述
我正在寻找以下方面的 gpu 内存分数限制参数:
spacy、torch 等常用型号。
我知道我们可以设置 tensorflow 模型,per_process_gpu_memory_fraction
但是在 pytorch 或 spacy 中是否存在等价物?
如果有一种方法可以同时将共享 vgpu 上的内存分配给多种不同类型的模型,那么会有加分吗?
即 Spacy 模型消耗 0.20,Tensorflow 模型消耗 0.40,而 pytorch 模型消耗 0.30,因此我们可以在使用共享 vgpu 资源为同一集群上的所有模型提供服务时避免内存不足错误。
对于更多的上下文,我们将这个 virtualgpu 插件 https://github.com/awslabs/aws-virtual-gpu-device-plugin与 kubeflow 一起使用。
解决方案
推荐阅读
- haskell - 哈斯克尔。返回列表中所需项的最大序列的长度
- git - 与 npm 等包管理器相比,使用 git 子模块的主要优势是什么?
- javascript - 有没有办法让 Electron 主进程脚本使用 `postMessage` 函数监听页面发布的消息?
- linkedin - 如何使用 LinkedIn API 获取公司洞察
- python - 展开列表字典以获取列表中每个值的键排列
- c++ - 将旧库与新模块系统一起使用
- javascript - 在 ReactJS 中传递 Props
- python - 我无法将从套接字接收的数据更改为整数。我收到此错误“invalidlateral for int () with base 10”
- html - 在文件类型输入的接受属性中传递 .png 和 image/png 有什么区别?
- php - Laravel 中的条件格式