JZTXT
  • 首页
  • Ai
  • Java
  • Python
  • Android
  • Mysql
  • JavaScript
  • Html
  • CSS

梯度消失

发布时间 2023-08-23 10:59:15作者: 小凉拖

产生原因

激活函数采用sigmod或双曲正切函数时输入过大或则过小会导致其梯度接近于0

解决方案

  • 采用Relu函数
  • 输入数据归一化(批归一化)是所有输入数据落在梯度不为0的区间
  • 合适的权值初始化策略
    本栏目推荐文章
  • 神经网络优化篇:理解mini-batch梯度下降法(Understanding mini-batch gradient descent)
  • 机器学习-梯度下降法
  • 解决 clamp 函数会阻断梯度传播
  • 神经网络优化篇:详解Mini-batch 梯度下降(Mini-batch gradient descent)
  • 神经网络优化篇:梯度检验应用的注意事项(Gradient Checking Implementation Notes)
  • 神经网络优化篇:详解梯度检验(Gradient checking)
  • 强化学习算法中的梯度和更新公式在代码的哪里体现?
  • 神经网络优化篇:详解梯度的数值逼近(Numerical approximation of gradients)
  • 神经网络优化篇:详解梯度消失/梯度爆炸(Vanishing / Exploding gradients)
  • 策略梯度
版权声明:本网站为非赢利性站点,本网站所有内容均来源于互联网相关站点自动搜索采集信息,相关链接已经注明来源。
联系我们