机器学习算法优化内部机制.docx
《机器学习算法优化内部机制.docx》由会员分享,可在线阅读,更多相关《机器学习算法优化内部机制.docx(10页珍藏版)》请在第一文库网上搜索。
1、机器学习算法优化内部机制损失线性组合是正确的选择吗?这篇文章或许能够给你答案在机器学习中,损失的线性组合无处不在。虽然它们带有一些陷 阱,但仍然被广泛用作标准方法。这些线性组合常常让算法难以调整。 在本文中,作者提出了以下论点:机器学习中的许多问题应该被视为多目标问题,但目前并非如此;1中的问题导致这些机器学习算法的超参数难以调整;检测这些问题何时发生几乎是不可能的,因此很难解决这些问题。有一些方法可以轻微缓解这些问题,并且不需要代码。 梯度下降被视为解决所有问题的一种方法。如果一种算法不能解决你的问题,那么就需要花费更多的时间调整超参数来解决问题。损失的线性组合无处不在尽管存在单目标的问题,
2、但通常都会对这些目标进行额外的正则 化。本文作者从整个机器学习领域选择了这样的优化目标。首先来说正则化函数、权重衰减和Lasso算法。显然当你添加了这些正则化,你已经为你的问题创建了多目标损失。毕竟我们关心的是原始损失L_0和正则化损失都保持很低。你将会使用人参数在这二者之间调整平衡。E(O) = &(。) + 入 网L() = L0() + 2因此,损失(如VAE的)实际上是多目标的,第一个目标是最 大程度地覆盖数据,第二个目标是保持与先前的分布接近。在这种情 况下,偶尔会使用KL退火来引入一个可调参数B,以帮助处理这种 损失的多目标性。E(O) = EqMZlH) log刖加)-BDKL
3、(HI)IlP(Z)同样在强化学习中,你也可以发现这种多目标性。在许多环境中, 简单地将为达成部分目的而获得的奖励加起来很普遍。策略损失也通 常是损失的线性组合。以下是PPO SAC和MPO的策略损失及其 可调整参数的燃正则化方法。L(7) = 一 E EMa力r(st,t) + &H(,s“l(7) = IE,。) (Q,4) oDkl 7) 最后,GAN损失当然是判别器损失和生成器损失的和:L() = 1EMIog4(叫-E2 log(l - 4(Ge(Z)所有这些损失都有一些共性,研究者们正在尝试同时针对多个目 标进行高效优化,并且认为最佳情况是在平衡这些通常相互矛盾的力 量时找到的。在
4、某些情况下,求和方式更加具体,并且引入了超参数 以判断各部分的权重。在某些情况下,组合损失的方式有明确的理论 基础,并且不需要使用超参数来调整各部分之间的平衡。一些组合损失的方法听起来很有吸引力,但实际上是不稳定且危险的。 平衡行为通常更像是在走钢丝。样例分析考虑一个简单的情况,我们尝试对损失的线性组合进行优化。我 们采用优化总损失(损失的总和)的方法,使用梯度下降来对此进行 优化,观察到以下行为:Optimising a Multi-Objective LossJax中的代码如下:def loss():return loss-l() + loss-2()loss_derivative - g
5、rad(loss)for gradient_step in range(2): gradient = loss-derivative() - .2 gradient通常情况下,我们对两个损失之间的权衡并不满意,因此在第二 个损失上引入了比例系数,并运行了以下代码:def loss (, Cl) : return loss_l ()+ Q*loss_2( )loss_derivative =grad(loss)for gradient_step in range(200): gradient = loss-derivative(, =0. 5) = - 0. 02 * gradient br我们
6、希望看到:当调整时,可以选择两个损失之间的折衷, 并选择最适合自身应用的点。我们将有效地进行一个超参数调整回路, 手动选择一个来运行优化过程,决定降低第二个损失,并相应地调 整并重复整个优化过程。经过几次迭代,我们满足于找到的解,并 继续写论文。但是,事实并非总是如此。有时,问题的实际行为如下动图所示:看起来无论怎样调整参数 ,都不能很好地权衡两种损失。我们看到了两类解决方案,它们都分别忽略了一种损失。但是, 这两种解决方案都不适用于大多数应用。在大多数情况下,两种损失 更加平衡的点是可取的解决方案。实际上,这种关于训练过程中两种损失的图表几乎从未绘制过, 因此该图中所示的动态情况常常无法观察
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 机器 学习 算法 优化 内部 机制