分类 PyTorch 教程 下的文章


撰写于:  浏览:435 次  分类:PyTorch 教程
1、UninitializedParameter 简介UninitializedParameter意为:未初始化的参数。UninitializedParameter是torch.nn.Parameter的一种特殊情况,其中数据的形状是未知的。与torch.nn.Parameter不同,UninitializedParameter不包含任何数据,尝试[...]

撰写于:  浏览:512 次  分类:PyTorch 教程
在PyTorch中,每个Tensor都有三大属性:torch.dtype、torch.device、torch.layout1、torch.dtype 属性https://pytorch.org/docs/stable/tensor_attributes.html#torch.dtype2、torch.device 属性https://pytorc[...]

撰写于:  浏览:473 次  分类:PyTorch 教程
1、PyTorch自动微分的入门例子首先,我们先看一下PyTorch官网的入门例子,代码如下所示:import torch x = torch.ones(5) # input tensor y = torch.zeros(3) # expected output w = torch.randn(5, 3, requires_grad=True[...]

撰写于:  浏览:424 次  分类:PyTorch 教程
通常numpy.where()有两种用法:np.where(condition, x, y) 以及 np.where(condition),本文详细给大家介绍一下。1、np.where(condition, x, y)当where内有三个参数时,第一个参数表示条件,当条件成立时where方法返回x,当条件不成立时where返回y>>&g[...]

撰写于:  浏览:536 次  分类:PyTorch 教程
一般来说我们最常见到的用法是这样的:device = torch.device("cuda" if torch.cuda.is_available() else "cpu")等同于:if torch.cuda.is_available(): device = torch.device("cu[...]

撰写于:  浏览:538 次  分类:PyTorch 教程
在PyTorch中,torch.clamp()函数用于将张量中的元素限制在指定的最小值和最大值之间。这个函数对于防止梯度爆炸、梯度消失或处理异常值非常有用。下面我们将深入探讨这个函数的工作原理、参数、应用场景以及与其它相关函数的比较。1、clamp函数的工作原理torch.clamp()函数通过比较每个元素与最小值和最大值,将所有小于最小值的元素设[...]

撰写于:  浏览:544 次  分类:PyTorch 教程
1、网络权重初始化存在的问题早期的参数初始化方法普遍随机初始化。最常用的随机初始化方法是从均值为0、方差为1的高斯分布中随机采样得到权重。需要注意的是,随机初始化所使用的值的范围可能会对网络性能产生重大影响。如果权重以过大或过小的值初始化,可能会导致训练过程收敛缓慢甚至导致网络发散。2、Xavier Initialization诞生背景Xavier[...]

撰写于:  浏览:2208 次  分类:PyTorch 教程
提示:本文修订于2024年10月19日。1、《PyTorch面试精华》的特点简介《PyTorch面试精华》不仅仅是面试,更是对PyTorch以及AI深度学习技术的系统化、全面化的汇集和沉淀,适用人群即包括刚迈入校门的大一新生,也包括工作十年的职场老鸟;即可以让非AI专业的业余兴趣者增长见识,也可以为专业的AI面试官提供精品题库。自电子教程上线以来,[...]

撰写于:  浏览:1434 次  分类:PyTorch 教程
1、torch.no_grad()函数的作用torch.no_grad()函数是禁用梯度计算的上下文管理器。当我们确信不会调用Tensor.backward()时,禁用梯度计算很有用,因为它将减少计算的内存消耗。在这种模式下,即使输入的向量的requires_grad=True,每次计算的结果也将为requires_grad=False。但是,有种[...]

撰写于:  浏览:356 次  分类:PyTorch 教程
1、LeakyReLU 激活函数的作用机制 2、LeakyReLU 激活函数的图像展示 3、PyTorch LeakyReLU 激活函数torch.nn.LeakyReLU(negative_slope=0.01, inplace=False)4、PyTorch LeakyReLU 激活函数的应用场景>>> m = n[...]

撰写于:  浏览:409 次  分类:PyTorch 教程
错误原因:我们使用view()函数的时候,稍有不慎会碰到这样的错误:RuntimeError: invalid argument 2: view size is not compatible with input tensor's....这是因为tensor经过转置后数据的内存地址不连续导致的。解决方案:在view()函数前加contiguous([...]

撰写于:  浏览:463 次  分类:PyTorch 教程
data_ptr方法是tensor向量的一个很重要的方法,它的作用是返回tensor首元素的内存地址,常用来判断两个tensor是不是共享内存,如下所示:data_t = data.t() # Transpose print(data.data_ptr() == data_t.data_ptr()) # True因为Transpose操作只是改变了[...]

撰写于:  浏览:437 次  分类:PyTorch 教程
PyTorch中有很多浮点类型,例如,torch.float16、torch.float32、torch.float64等。当初始化tensor的时候,可以指定使用那种浮点数类型,如果我们不指定,那么PyTorch默认使用torch.float32类型。如下所示:>>> torch.tensor([1.2, 3]).dtype t[...]

撰写于:  浏览:476 次  分类:PyTorch 教程
在PyTorch中,Tensor.contiguous()方法是一个重要的Tensor操作,用于确保Tensor的内存布局是连续的。这种操作通常在进行某些特定操作后可能需要,因为Tensor的物理内存布局有可能因为某些操作而变得非连续。Tensor的内存布局一个Tensor的数据在内存中可以是连续的,也可以是非连续的。连续的内存布局意味着Tenso[...]

撰写于:  浏览:369 次  分类:PyTorch 教程
1、什么是共轭矩阵?共轭矩阵是一个复数矩阵,其中它的所有元素都被它们的共轭取代,即它的所有复数的虚部的符号都被改变了。2、共轭矩阵的示例

关注公众号,每天学一个AI知识

    友情链接