2023年计算机专题研究报告(1).docx
《2023年计算机专题研究报告(1).docx》由会员分享,可在线阅读,更多相关《2023年计算机专题研究报告(1).docx(12页珍藏版)》请在第一文库网上搜索。
1、正文目录ChatGPT:三个阶段打造智能对话交互式A1模型3GPT1阶段:开启生成式预训练模型时代4GPT-1:在TranSfOrmer架构基础上,引入微调训练4GPT-2阶段:无监督训练替代有监督训练5GPT-2:取消微调,用更大参数和数据集进行ZerO-ShOt学习5OpenAI:得到微软注资,关注技术滥用问题6GPT-3阶段:性能不断突破,开启商业探索7GPT-3:模型参数达1750亿,few-shot进一步提高性能7对外提供GPT-3API,开启商业模式探索8CodeX:基于GPT-3的代码生成工具9InstructGPT:人类反馈强化学习技术加持下的“最强”GPT-310ChatGP
2、T阶段:各大互式网厂商争相推出类似产品12ChatGPT:以对话方式交互的进化版InstructGPT12ChatGPTP1us:商业模式二次探索13微软继续加注OpenAI,推出基于ChatGPT的新版Bing13各大互联网厂商均表示将推出类ChatGPT产品14风险提示14ChatGPT:三个阶段打造智能对话交互式A1模型ChatGPT从诞生到现在,经历了三个大版本阶段的演进。1) GPT-1阶段:2018年6月,OPenA1发表论文Improving1anguageUnderstandingbyGenerativePre-TrainingX标志着GPT-I的诞生。论文首次提出生成式预训练
3、概念,基于TranSfOrmer架构的解码器搭建训练模型。训练过程包括预训练和微调两个阶段,模型参数量为1.17亿。2) GPT-2阶段:2019年2月,论文1anguageMode1sareUnsupervisedMu1titask1earners发布,GPT-2诞生。GPT-2取消了GPT-I中的有监督微调阶段,将其变成了无监督的模型,采用更大的参数和多任务(mu1titask)学习进行预训练,提高了模型面对未知任务时的推理能力(Zeroshot零次学习)。GPT-2训练参数量为15亿。3) GPT-3阶段:2023年5月,OpenAI发表论文1anguageMode1sareFew-Sh
4、ot1earners,提出GPT-3模型。GPT-2模型中的ZerO-ShOt在某些任务上性能不及预期,因此OPenA1在GPT6中提出了few-shot少量(Io-Ioo个)样本学习,提高了模型的表现性能。在模型参数量上,从GPT-2的15亿提升到1750亿。2023年8月,OPenA1推出基于GPT-3的通用编程模型Codex,可以将自然语言转换翻译、解释和重构为代码。2023年3月,OPenAI将基于人类反馈的强化学习(R1HF)技术引入GPT-3,通过奖励(reward)机制进一步训练模型,提高模型性能和准确度,InStrI1CtGPT诞生。InStrUCtGPT训练参数量仅13亿,与
5、GPT-3的1750亿相比大大减少,能给出更符合人类思维的榆出结果。ChatGPT阶段:2023年11月,OPenA1正式推出了对话交互式的ChatGPT。本质上,ChatGPT和InStr11CtionGPT为同代产品,只是在InstructGPT的基础上增加了聊天功能,同时向公众开放使用,产生更多有效标注数据。ChatGPT上线5天便突破100万用户,目前,微软已整合ChatGPT推出新版浏览器EDGE和搜索引擎Bingo谷歌也发布了对标产品Bardo此外,国内厂商如百度、京东、阿里等也宣布进军ChatGPT行业)OPenA1资料来源:OpenAI*H,arxiv论文、华泰研究我们将对GP
6、T的每个发展阶段进行详细复盘和模型拆解,对技术和理念进行溯源。GPT-1阶段:开启生成式预训练模型时代GPT-1:在TranSfOrmer架构基础上,引入微调训练GPT-1仅保留了TranSfOrmer架构的解码器部分。从架构上看,GPT-1基于TranSfOrmer架构,但是仅保留了架构中的解码器部分。其中,解码器共有12层(Iayer),整个模型相比TrarISfOrmer更加简单,训练速度更快,GPT-1更擅长自然语言处理生成类任务。图衰2:GPT-1的架构资料来源:Improving1anguageUnderstandingbyGenerativePre-Training、华泰研究GP
7、T-1的训练过程包括颈训练和撤调两个阶段。1)第一阶段:采用多层TranSformer模型的解码器(Deeoder)为语言模型,进行基于大文本语料库的高容量无监督学习。2)第二阶段:在做下游任务时,当输入的问题具有结构化特征,例如有序的句子对或文档、问题和答案的三元组,首先将不同类的问题转换为不同的输入脂式,再针对不同任务采用不同数据集进行微调训练。GPT-1训练的参数量为1.17亿,预训练阶段采用BooksCorpus数据集,该数据集包括7000多本来自风格不同的未出版书籍,内含长段的连续文本,微调阶段则根据不同任务类型选择数据集。训练结果上看,GPT-1在常识推理、问题回答、文本蕴涵等任务
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 2023 计算机 专题研究 报告