AAAI2023开幕:百度28篇论文入选涉及NLP机器学习视觉等领域.docx
《AAAI2023开幕:百度28篇论文入选涉及NLP机器学习视觉等领域.docx》由会员分享,可在线阅读,更多相关《AAAI2023开幕:百度28篇论文入选涉及NLP机器学习视觉等领域.docx(6页珍藏版)》请在第一文库网上搜索。
1、AAAI2023开幕:百度28篇论文入选涉及N1P、机器学习、视觉等领域立春刚过,人工智能行业迎来2023年的第一个顶级学术大会,2月7日,AAAI2023在美国纽约拉开了帷幕。本届大会百度共有28篇论文被收录,较AAA12019的15篇入选成绩提升近一倍,本次入选论文涉及机器学习、自然语言处理、计算机视觉等多个领域,原计划有多位百度重量级科学家、研究者将受邀赴会发表演讲。受疫情影响,众多中国学者将缺席本次大会,百度作为中国人工智能行业“头雁”,通过积极的远程参与,向世界展示技术、学术能力,提振中国A1开年信心。自1979年成立至今,AAAI已举办34届,大会汇集了全球顶尖的人工智能领域专家学
2、者,可谓是人工智能行业的科研风向标。本届会议共收到的有效论文投稿超过8800篇,其中7737篇论文进入评审环节,最终录取数量为1591篇,录取率为20.6%O其中百度入选28篇论文,再创百度参会入选论文数历史新高,这一成绩在全球范围中也处于第一梯队。此次入选的28篇论文覆盖机器学习、自然语言处理、计算机视觉等领域,完成了在数量上和研究方向的双向突破,创新科研能力可见一斑。在N1P预训练领域,百度入选论文ERNIE2.0:AContinua1Pre-trainingFrameworkfor1anguageUnderstanding也被选做Ora1进行展示。ERNIE2.0是持续学习的语义理解框架
3、,该框架可以增量地学习海量数据中的知识,持续提升语义理解效果。在ERNIE2.0中,知识可通过预训练任务的形式加入到训练框架,每当引入新任务时,该框架可在学习该任务的同时,不遗忘之前学到过的信息。基于该框架,ERNIE2.0模型通过命名实体预测、句子排序结构重建、语义逻辑关系预测等预训练任务,从大规模训练数据中获取到词法、句法、语义等多个维度的知识,大幅提升了通用语义理解水平。ERNIE2.0同现有的预训练模型在英文数据集合G1UE和9个中文任务上进行了实验。模型在英语任务上几乎全面优于之前的SOTA模型BERT和X1Net,在7个G1UE任务上取得了最好的结果;中文任务上,ERNIE2.0模
4、型在所有9个中文N1P任务上全面优于BERT。去年12月,基于ERNIE2.0改进的模型在G1UE上首次突破90大关,超越人类基线3个点拿到全球第一。机器阅读理解领域,百度入选论文ARobustAdversaria1TrainingApproachtoMachineReadingComPrehension,讨论了机器阅读理解模型面临对抗攻击时的效果鲁棒性问题甚至安全问题。通过人工方式发现、总结并生成用于训练对抗样本的方式会产生需要人工参与的缺点,且不可能通过规则的方式枚举出所有可能的对抗样本类型及其规则。针对此,论文提出一种模型驱动的方式,使用自动对抗的方法无需人工参与,能够自动地发现未观察过
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- AAAI2023 开幕 百度 28 论文 入选 涉及 NLP 机器 学习 视觉 领域