人工智能行业分析研究.docx
《人工智能行业分析研究.docx》由会员分享,可在线阅读,更多相关《人工智能行业分析研究.docx(38页珍藏版)》请在第一文库网上搜索。
1、人工智能行业分析研究1大模型构筑A1基石,MaaS未来可期11N1P五级进阶,大模型应运而生从基于规则到基于人的意识,大型语言模型是技术进步的必然产物。自然语言处理发展到大型语言模型的历程可分为五个阶段:规则、统计机器学习、深度学习、预训练、大型语言模型。考虑到机器翻译是N1P中难度最高、综合性最强的任务,可借助该功能来论述不同技术阶段的典型特点。从1956年到1992年,基于规则的机器翻译系统在内部把各种功能的模块串到一起,由人先从数据中获取知识,归纳出规则后教给机器,然后由机器执行这套规则,该阶段为规则阶段;从1993年到2012年是统计机器学习阶段,在此期间,机器翻译系统可拆成语言模型和
2、翻译模型,该阶段相比上一阶段突变性较高,由人转述知识变成机器自动从数据中学习知识,当时人工标注数据量在百万级左右;从2013到2018年,进入深度学习阶段,其相比于上一阶段突变性较低,从离散匹配发展到embedding连续匹配,模型变得更大,标注数据量提升到千万级;预训练阶段存在于2018年到2023年,跟之前比较,最大变化是加入了N1P领域杰出的自监督学习,将可利用数据从标注数据拓展到了非标注数据。该阶段系统可分为预训练和微调两个阶段,将预训练数据量扩大3到5倍,典型技术栈包括EnCoder-DeCOder、TransformerAttention等。大模型阶段在数据标注、算法、人机关系三方
3、面的性能均有跨越式提升。从2023年起开始进入大模型阶段,该阶段的突变性很高,已经从专用任务转向通用任务或是以自然语言人机接口的方式呈现,旨在让机器遵循人的主观意志。在数据标注方面,大模型已经从原来需要大量标注数据进化到运用海量非标注数据,越来越多数据被利用起来,人的介入越来越少,未来会有更多文本数据、更多其它形态的数据被模型运用。在算法方面,大模型的表达能力越来越强、规模越来越大,自主学习能力越来越强,从专用向通用趋势显著。195O.XCf1XHdSOKKMMTCXMAICNN*t.18W瓜代fmwn2Xm2R!SR*NN1Mf1t2.?006*nrT3T9AS1201E.7次wrBAff.
4、201Mtt*attMSWxdVecaft.2014W加19t2o52017FMbooHTFyxA*r曲.,MttMKMCAN.Ooc)9MIM5T,xozERMrwAirnmR7GFT1bO(RTBttawhf*x*eMteMttnj1201.OpnAV0*(g6ot)rfi*WTiIU4h*x*tnaj.用IO全球A1大模不演化痴速1.2.从CNN到Transformer,大模型底层架构显著优化从CNN到RNN再到1TSM,语言处理性能得到有效提升。早期N1P注重语法分析,通过设计语法方向实现句子分析。伴随着语料数据复杂化、多样化,句子分析难度也提升。随后卷积神经网络(CNN)引发计算机视
5、觉领域的变革,因此CNN也逐步用在N1P上。但传统神经网络擅长图像识别,考虑到语言的顺序属性,直接进行文字处理则效果有限。所以,随后循环神经网络(RNN)模型应用铺开,RNN将顺序作为权重因子,实现了较好的效果。但RNN单元的记忆力短和梯度不稳定,因而用于长序列时也有一定局限性。后来长短期记忆网络(1TSM)成为关注点,一定程度解决了RNN的痛点,但针对长段落的处理能力仍需提升。TranSfOrmer模型可以替代当前的递归模型,消减对输入输出的顺序依赖。TranSfOrmer模型作为完全基于注意力机制的新神经网络架构,在技术特征上主要体现为可以并行、速度更快。过往要训练一个深度学习模型,必须使
6、用大规模的标记好的数据集合来训练,这些数据集合需要人工标注,成本极高。在TranSfOrmer下,通过MaSk机制,遮挡已有文章中的句段,让A1去填空,从而使很多现成的文章、网页等信息就成为天然的标注数据集,成本节省极为明显;同时,RNN的顺序计算、单一流水线的问题在Transformer的并行机制下也能得到有效解决。TranSformer问世后,迅速取代循环神经网络RNN的系列变种,可以满足市面上几乎所有的自然语言处理的需求,成为主流的模型架构基础。OPenAI、谷歌、百度等都是基于TranSfOrmer模型进行大模型研发和应用。基于预训练机制,Transformer标志着“基础模型”时代的
7、开始。TranSfOrmer作为基础性模型,开始对人脑学习过程重点关注,为其他模型(GPT、GPT-3、BERT等)的演化提供基本手段。同时,迁移学习(TranSfer1earning)使得基础模型成为可能,而预训练又是迁移学习的主要方式。迁移学习的思想是将从一项任务中学习到的“知识”(例如,图像中的对象识别)应用于另一项任务(例如,视频中的活动识别)。在TranSformer模型中,预训练(Petraining)是迁移学习的主要方法:“预训练”是将大量低成本收集的训练数据放在一起,经过某种预训方法去学习其中的共性,然后将共性移植”到特定任务模型中,再使用相关特定领域的少量标注数据进行“微调”
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 人工智能 行业 分析研究
