在PyTorch中,DataParallel 是一个模块,它允许你在多个GPU上分布式地训练模型。为了让输入数据自动移动到GPU,你需要做的是将模型和数据包装在 DataParallel 中。以下是一个简单的例子,展示如何使用 DataParallel:import torch
import torch.nn as nn
from torch.ut[...]
数据准备import torch
import torch.nn as nn
import numpy as np
import matplotlib.pyplot as plt
# Set random seed for reproducibility
np.random.seed(0)
torch.manual_seed(0)
# Gene[...]