本文介绍: 首先需要确保系统上安装了CUDA支持的NVIDIA GPU和相应的驱动程序。
首先需要确保系统上安装了CUDA支持的NVIDIA GPU和相应的驱动程序。
基本步骤如下
检查CUDA是否可用:
使用 torch.cuda.is_available() 来检查CUDA是否可用。
指定设备:
可以使用 torch.device(“cuda:0”) 来指定要使用的GPU。如果系统有多个GPU,可以通过改变索引(例如 “cuda:1”)来选择不同的GPU。
将模型移至GPU:
使用 .to(device) 方法将模型移至GPU。例如,如果 model 是PyTorch模型,且 device 是之前定义的设备,使用 model.to(device)。
将数据移至GPU:
同样地,将数据(例如张量)也需要移至GPU。例如,如果 data 是一个张量,使用 data = data.to(device)。
进行计算:
然后可以像平常一样进行模型的训练或推断,PyTorch会在GPU上执行计算。
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。