python - 在 Colab 中使用 CUDA
问题描述
tensor.to
当我选择运行时类型作为 GPU 时,是否有必要在 colab 中将张量和模型转换为 CUDA ?
我想使用 CUDA 来训练我的模型
解决方案
- tensor.to(device) 将数据传输到给定的设备。
- 是的,您需要将模型、输入、标签等传输到您打算使用的任何设备
tensor.to
当我选择运行时类型作为 GPU 时,是否有必要在 colab 中将张量和模型转换为 CUDA ?
我想使用 CUDA 来训练我的模型
标签: pythonpytorchgoogle-colaboratory