AdamW

AdamW优化

由于AdamW是Adam+L2正则化的改进,所以这里再详细总结一下正则化方法 正则化:所有防止过拟合,提升模型泛化能力的方法(包括常见的L1,L2,dropout等,可能还有许多更为广义上的正则化措施) L1,L2正则化:利用L1,L2番薯规范网络参数w的方法,注意这里只说了w没有说b(y=wx+b ......
AdamW
共1篇  :1/1页 首页上一页1下一页尾页