gpu - 在 Google Colaboratory 中,有没有办法表明偏好或需要特定的 gpu 模型?
问题描述
我正在尝试为某些任务测量 Google Colaboratory 的运行时扩展和限制,这可能都很大程度上取决于后端分配的 gpu 模型。目前在 notebook 中,Runtime,Change runtime type,Hardware Accelerator 带来了none、gpu、tpu 选项。那里没有能力表明对特定 gpu 模型的偏好或要求。是否有其他方法可以表明对特定 gpu 模型的偏好或要求,或者对会话分配给 VM 的 gpu 模型不感兴趣?拥有这样的能力会很棒。目前,我只是不断尝试新的会话,直到我得到我正在寻找的 gpu 模型来执行任务。这对于 Google 基础架构和用户来说都是乏味且低效的。
解决方案
推荐阅读
- xamarin - 如何在 C# 中为 Xamarin 实现包含元素的 Grid?
- bash - user_data 在 terraform 应用程序之后不运行
- authentication - 使用 OpenLDAP 进行 Kerberos 身份验证
- vue.js - Nuxt - “纱线生成”后页面无法正确加载
- django - 无法使用具体视图 django rest 框架上传 Img
- swift - UItableView automaticDimension 不适用于 UIStackView
- android - 在活动布局文件中添加片段代码有什么用?
- python - flask / flask_restful :从另一个蓝图中的另一条路由调用一个蓝图中的路由
- c++ - 我该如何解决(没有匹配函数调用 'Hospital::Hospital()'| )
- azure-devops - Azure DevOps Server dotnet restore 无权访问源