AI顶会云举行优必选科技论文入选ICLR.docx
《AI顶会云举行优必选科技论文入选ICLR.docx》由会员分享,可在线阅读,更多相关《AI顶会云举行优必选科技论文入选ICLR.docx(8页珍藏版)》请在第一文库网上搜索。
1、A1顶会“云”举行,优必选科技论文入选IC1R受全球范围疫情爆发的影响,原定于4月25日在埃塞俄比亚首都亚的斯亚贝巴举行的人工智能顶会IC1R2023,宣布取消线下会议,完全改为线上。此前,2月7日在美国纽约举办的人工智能顶级会议AAAI2023,也采取了部分线上模式,让不能到场的学者远程参会。虽然疫情让这些人工智能顶会充满变数,但丝毫不影响全球人工智能学者和研究人员的热情,他们提交了大量重要研究成果的论文。优必选悉尼大学人工智能研究中心今年也有数篇论文被人工智能顶会接收,其中,IC1R2023有2篇,AAAI2023有4篇,CVPR2023有12篇。IC1R(国际学习表征会议)于2013年成
2、立,由1eCUn,Hinton和Bengio三位神经网络的元老联手发起。近年来随着深度学习在工程实践中的成功,IC1R也在短短的几年中发展成为了神经网络的顶会。今年,IC1R共收到了2594篇论文投稿,相比去年的1591篇论文投稿,增加了38.7%,其中687篇论文被接收,优必选悉尼大学人工智能中心有2篇论文被接收。一:分段线性激活实质上塑造了神经网络的损失平面摘要:理解神经网络的损失平面对于理解深度学习至关重要。本文介绍了分段线性激活函数是如何从根本上塑造神经网络损失平面的。我们首先证明了许多神经网络的损失平面具有无限的伪局部极小值,这些伪局部极小值被定义为经验风险比全局极小值更高的局部极小
3、值。我们的结果表明,分段线性激活网络与已被人们充分研究的线性神经网络有着本质区别。实践中,这一结果适用于大多数损失函数中任何具有任意深度和任意分段线性激活函数(不包括线性函数)的神经网络。本质上,基本假设与大多数实际情况是一致的,即输出层比任何隐藏层都窄。此外,利用不可微分的边界将具有分段线性激活的神经网络的损失平面分割成多个光滑的多线性单元。所构造的伪局部极小值以底谷的形式集中在一个单元中:它们通过一条经验风险不变的连续路径相互连接。对于单隐层网络,我们进一步证明了一个单元中的所有局部最小值均构成一个等价类别;它们集中在一个底谷里;它们都是单元中的全局极小值。二:理解递归神经网络中的泛化摘要
4、:在本文中,我们阐述了分析递归神经网络泛化性能的理论。我们首先基于矩阵I-范数和Fisher-Rao范数提出了一种新的递归神经网络的泛化边界。Fisher-Rao范数的定义依赖于有关RNN梯度的结构引理。这种新的泛化边界假设输入数据的协方差矩阵是正定的,这可能限制了它在实际中的应用。为了解决这一问题,我们提出在输入数据中加入随机噪声,并证明了经随机噪声(随机噪声是输入数据的扩展)训练的一个泛化边界。与现有结果相比,我们的泛化边界对网络的规模没有明显的依赖关系。我们还发现,递归神经网络(RNN)的Fisher-Rao范数可以解释为梯度的度量,纳入这种梯度度量不仅可以收紧边界,而且可以在泛化和可训
5、练性之间建立关系。在此基础上,我们从理论上分析了特征协方差对神经网络泛化的影响,并讨论了训练中的权值衰减和梯度裁剪可以如何改善神经网络泛化。今年首场人工智能顶会AAAI2023已于2月份在美国纽约举办,共评审了7737篇论文,最终接收了1591篇,接收率为20.6%,优必选悉尼大学人工智能中心有4篇论文被接收。一:阅读理解中的无监督域自适应学习摘要:深度神经网络模型在很多阅读理解(RC)任务数据集上已经实现显著的性能提升。但是,这些模型在不同领域的泛化能力仍然不清楚。为弥补这一空缺,我们研究了阅读理解任务(RC)上的无监督域自适应问题。研究过程中,我们在标记源域上训练模型,并在仅有未标记样本的
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- AI 顶会云 举行 优必选 科技 论文 入选 ICLR