pytorch梯度裁剪的原理是什么

本篇内容主要讲解“pytorch梯度裁剪的原理是什么”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“pytorch梯度裁剪的原理是什么”吧!

既然在BP过程中会产生梯度消失/爆炸(就是偏导无限接近0,导致长时记忆无法更新),那么最简单粗暴的方法,设定阈值,当梯度小于/大于阈值时,更新的梯度为阈值,如下图所示:

1、梯度裁剪原理

pytorch梯度裁剪的原理是什么

优点:简单粗暴
缺点:很难找到满意的阈值

2、nn.utils.clip_grad_norm(parameters, max_norm, norm_type=2)

这个函数是根据参数的范数来衡量的

Parameters:

    • parameters (Iterable[Variable]) – 一个基于变量的迭代器,会进行归一化(原文:an iterable of Variables that will have gradients normalized)

    • max_norm (float or int) – 梯度的最大范数

    • norm_type(float or int) – 规定范数的类型,默认为L2

Returns:参数的总体范数(作为单个向量来看)

到此,相信大家对“pytorch梯度裁剪的原理是什么”有了更深的了解,不妨来实际操作一番吧!这里是亿速云网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!

原创文章,作者:1402239773,如若转载,请注明出处:https://blog.ytso.com/tech/opensource/223990.html

(0)
上一篇 2022年1月7日 04:42
下一篇 2022年1月7日 04:42

相关推荐

发表回复

登录后才能评论