机器学习-大规模机器学习

随机梯度下降

打乱数据集顺序,为了收敛更快

比起批量梯度下降随机梯度下降不需要对整个样本求和后来得到梯度项,可以对单个训练样本求梯度,并且在此过程中已经开始优化参数了。在某个区域连续朝着全局最小值的方向徘徊,而不是像批量梯度下降一样直接达到全局最小值

18随机梯度下降步骤

保证收敛以及学习效率α的选择

18随机梯度下降收敛验证方法

提前计算 J ,取1000 / 5000样本的均值

红线是α小的曲线

当曲线发散时,可以减小α

当曲线震荡时,可以加大 J 样本数量

18随机梯度下降收敛

假设拥有一个连续的数据不再使用一个固定的数据集,随机梯度下降可以运用于在线学习

Mini-Batch梯度下降(微型梯度下降)

在向量化过程中,Mini-Batch梯度下降可能比随机梯度下降速度、效果更优

缺点是需要确定 b 的大小。

18微型梯度下降思想

18微型梯度下降步骤

改变学习效率

18学习效率

减少映射与数据并行

只要是表示对训练集的求和,便可以用MapReduce 适应于多台计算机和多核电脑

18减少映射示意图

18减少映射示例

---------------- 本文结束 ----------------

本文标题:机器学习-大规模机器学习

文章作者:Pabebe

发布时间:2019年08月07日 - 21:31:09

最后更新:2020年06月16日 - 18:24:34

原始链接:https://pabebezz.github.io/article/a036031c/

许可协议: 署名-非商业性使用-禁止演绎 4.0 国际 转载请保留原文链接及作者。

0%