本篇内容主要讲解“pytorch梯度裁剪的原理是什么”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“pytorch梯度裁剪的原理是什么”吧!
既然在BP过程中会产生梯度消失/爆炸(就是偏导无限接近0,导致长时记忆无法更新),那么最简单粗暴的方法,设定阈值,当梯度小于/大于阈值时,更新的梯度为阈值,如下图所示:
1、梯度裁剪原理
优点:简单粗暴
缺点:很难找到满意的阈值
2、nn.utils.clip_grad_norm(parameters, max_norm, norm_type=2)
这个函数是根据参数的范数来衡量的
Parameters:
-
parameters (Iterable[Variable]) – 一个基于变量的迭代器,会进行归一化(原文:an iterable of Variables that will have gradients normalized)
-
max_norm (float or int) – 梯度的最大范数
-
norm_type(float or int) – 规定范数的类型,默认为L2
Returns:参数的总体范数(作为单个向量来看)
到此,相信大家对“pytorch梯度裁剪的原理是什么”有了更深的了解,不妨来实际操作一番吧!这里是亿速云网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!
原创文章,作者:1402239773,如若转载,请注明出处:https://blog.ytso.com/223990.html