Ebet官网登陆

联系我们CONTACT

地 址:中国 浙江 义乌市 廿三里街道埠头村5号
电 话:86 0574 65183870
q q:6026669
邮 箱:6026669@qq.com
联系人:王英 女士
手 机:13486026669
网 址:http://www.21spain.com

您当前的位置: > Ebet官网登陆 > Ebet官网登陆

腾讯混元、北大发现Scaling law“浪涌现象”解决学习率调参难题

上传时间:2024-06-11阅读次数:编辑:admin

  金属波纹管机械密封强压处理金属弹性元件联轴器近似直线机构金属陶瓷摩擦材料紧蹄浸蚀磨损近似尺寸颗粒紧固件筋宽过去十年间,基于随机梯度下降(SGD)的深度学习模型在许多领域都取得了极大的成功。与此同时各式各样的 SGD 替代品也如雨后春笋般涌现。在这些众多替代品中,Adam 及其变种最受追捧。无论是 SGD,还是 Adam,亦或是其他优化器,最核心的超参数非 Learning rate 莫属EBET真人厅网站。因此如何调整好 Leanring rate 是炼丹师们从一开始就必学的技能。

  从直觉上讲,影响 Learning rate 取值的重要因素是 Batch size。不知你在学习炼丹术时,是否遇到或者思考过入如下问题:

  网上有说 Batch size 和 Learning rate 是线性放缩,也有说是平方根放缩,到底该按照哪个调整?

  针对上述问题,腾讯混元联合北京大学基于现有科研基础和实际业务需求,在进行了大量理论分析和实验验证后发布了关于 Batch size 和 Learning rate 放缩关系的调参指南:

  1. 当使用 SGD 风格的优化器时,应当采用 OpenAI 2018 年给出的结论():

  时EBET真人厅网站,社区中广为流传的线性放缩和平方根放缩在一定范围内都是正确的,并且分别对应使用 SGD 风格和 Adam 风格优化器的情况。

  如果仔细观察 Adam 风格优化器放缩规律的表达式子会发现,当 Batch size 超过

  后EBET真人厅网站,随着 Batch size 增加最优的 Learning rate 反而是下降的!这样的结论似乎有点反常,但是仔细思考之后又觉得是合理的。首先我们回顾一下 Adam 的更新形式,梯度的一阶动量除以二阶动量的平方根:

  (更详细的讨论参考原文中的附录 A)。与 SGD 直接采用 G 进行参数更新相比,

  将更快的进入饱和区间,例如,假设 G 的均值是正实数,随着 Batch size 增加

  为了检验理论的正确性,需要从实验中观察到最优学习率的 “下降区间”。既然从上一节的分析中发现,使用 Adam 优化器时 Batch size 超过

  计算很困难,但是幸运的是基于 OpenAI 关算于训练时间和样本效率的定量结论中我们可以估算出

  上面展示了 CNN 在 FashionMNIST 上的学习率 “下降区间”。左图为通过 OpenAI 定量公式估算的

  (左图直线斜率的负数,右图红色竖直虚线),右图中黄色五角星代表不同 Batch size 下的最优 Learning rate 取值,青色实线为我们的理论预估曲线。

  前面我们从理论和实验上都发现了,在使用 Adam 风格优化器时最优学习率曲线就像一朵 “浪花” 一样随着 Batch size 增加会先升高后下降。同时结合 OpenAI scaling law 的结论,随着训练进行

  会逐渐变大。我们理论预测并实验证明了随着训练进行 “浪花” 逐渐向着大 Batch size 方向涌动:

  的形式。虽然此形式看起来很简单,但是由于推导过程涉及到对更新量均值和方差的考量,所以我们在处理的时候做了一个假设和一个近似:

  我们在腾讯 Angel 大模型训练框架中集成了上述理论成果,并在腾讯混元大模型训练任务中对理论进行进一步验证,未来将服务于各种大模型训练场景。

  原标题:《腾讯混元、北大发现Scaling law「浪涌现象」,解决学习率调参难题》

EBET真人厅网站 Ebet官网登陆

公司地址:中国 广东 东莞市 东城区上桥社区牌楼街一号 服务电话:86 0769 23073669
Copyright 2017 EBET真人厅网站 All Rights Reserved

X请用手机扫描微信二维码