智能汽车行业分析.docx
《智能汽车行业分析.docx》由会员分享,可在线阅读,更多相关《智能汽车行业分析.docx(22页珍藏版)》请在第一文库网上搜索。
1、智能汽车行业分析1、OpenAI引领,人工智能进入大模型时代1.1、 ChatGPT横空出世,引领人工智能新浪潮人工智能历经多年发展,在诸多领域超越人类。自1956年8月达特茅斯会议上“人工智能”概念诞生以来,行业几经起落不断发展壮大。临近新千年的1997,IBM深蓝计算机打败国际象棋大师卡斯帕罗夫成为首台打败国际象棋世界冠军的电脑。2010年,谷歌宣布自动驾驶汽车计划。2012年卷积神经网络A1exNet在大规模视觉识别挑战赛中以比第二名低10.8个百分点的错误率夺冠,引发轰动,开启了深度学习黄金时代。2016年DeepMind公司的A1phaGo以4:1大比分战胜当时世界冠军李世石,人类将
2、围棋冠军也让与计算机,掀起人工智能新一轮热潮。多年以来,像计算器超越人类的计算能力一样,人工智能在越来越多领域超越人类,并被应用到千行百业,未来将继续在更多的领域崭露头角,为人类赋能。ChatGPT横空出世,再次引发人工智能热潮。2023年11月,ChatGPT横空出世,作为一种应用在对话场景的大语言模型,它可以通过更贴近人的方式与使用者互动,可以回答问题、承认错误、挑战不正确的前提、拒绝不适当的请求,同时拥有惊艳的思维链推理能力和零样本下处理问题能力。在理解人类意图、精准回答问题、流畅生成结果方面远超人类预期,几乎“无所不能”,引发网络热潮。据瑞银数据,ChatGPT产品推出2个月后用户数量
3、即过亿,而上一个现象级应用TikTOk达到1亿用户花费了9个月时间。微软将ChatGPT整合到其搜索引擎必应中后,在1个多月的时间内让必应日活跃用户数过亿。图4:ChatGPT可完美实现用户的需求甚至可输出代码Q帮我写一段用ViT实现图像分类的代码画vm,以下是TffiffiViT模空实现图像分类的PyTofChft科示例:GPT-4能力进一步提升,安全性显著增强。OPenA1在当地时间2023年3月14日发布了GPT3.5(ChatGPT基于GPT3.5开发)的升级版GPT4,性能全面超越ChatGPT。其具备多模态能力,可以同时支持文本和图像输入。支持的文本输入数量提升至约32000个to
4、kens,对应约2.5万单词。性能方面,(1)理解/推理/多语言能力增强,在专业和学术考试中表现突出,全面超越GPT3.5,通过了统一律师考试的模拟版本,分数在考生中排名前10%。(2)理解能力显著增强,可以实现“看图说话”,甚至能够理解一些幽默的图片笑话。(3)可靠性相比GPT3.5大幅提升19%。(4)安全性指标相比GPT3.5有显著提升,对不允许和敏感内容的错误反应显著下降。1.2、 算法是人工智能的基石,TranSfOrmer逐步成为主流121、始于N1P,延伸至各领域,TranSfOnner在人工智能行业展现统治力算法是构成模型的基石,循环神经网络(RNN)和卷积神经网络(CNN)曾
5、为自然语言处理和图像处理的领域主流算法。早年人工智能领域常见的算法包含循环神经网络(RNN)和卷积神经网络(CNN),其中循环神经网络每个环节的输出与前面的输出有关(有“记忆”),因此可更好的处理序列问题,如文本、股市、翻译等。卷积神经网络则以图像识别为核心,通过卷积核进行窗口滑动来进行特征提取,进而实现图像识别等功能。但两类算法均存在自身的问题,循环神经网络并行度低,计算效率受限,同时输入的数据较为庞大时,早期的记忆容易丢失。而卷积神经网络由于需要卷积核滑动来提取特征,面对距离较远的特征之间的关系识别能力有限。图12:循环神经网络适合处理序列信息Transformer结构性能强大一经推出迅速
6、得到认可。Transformer在谷歌著名的论文“Attentionisa11youneed”首次出现,其优点在于并行度高,精度和性能上均优于传统神经网络。该算法采用编码器解码器(Eneoder-DeCoder)架构,编码器接受输入并将其编码为固定长度的向量,解码器获取该向量并将其解码为输出序列。该算法早期被应用于翻译领域,相比传统RNN只关注句子相邻词之间的关系,Transformer会将句子中的每个字与所有单词进行计算,得出他们之间的相关度,而确定该词在句子里更准确的意义。因此TranSfOrmer拥有更优的全局信息感知能力。始于N1P,逐步延伸到各大应用领域。在计算机视觉领域,早年卷积神
7、经网络(CNN)几乎占据统治地位,TranSfOrmer出现后,大量基于Transformer及CNN和Transformer算法的结合体涌现,诞生了最初应用在图像识别领域的ViSionTransformer,应用在目标检测领域的DETR,应用在分割领域的SETR等等诸多算法。此外在其他领域,Transformer也开始崭露头角,观察TranSfonT1er有关的论文,几年之内,其所覆盖的领域迅速泛化,涵盖文本、图像、语音、视频等。1.2.2、 大语言模型多基于TranSfOrmer构建,DeCOder0n1y系列占优大语言模型形成三大类别,Decoder-On1y系歹U占优。出色的性能让Tr
8、ansformer架构已经成为各种大语言模型的主干,前文提到Transformer结构由编码器和解码器构成,而单独基于编码器或者解码器均可构建大语言模型,因此业内形成三类大模型路线:Decoder-On1y(仅解码器)、Encoder-On1y(仅编码器)、EnCoder-Decoder(编码器解码器)。其中采用Encoder-On1yWW谷歌的Bert、微软的Deberta等,其采用“完形填空”式的预训练,再根据所需的应用领域用少量标注过的数据进行Fine-tuning(微调)。采用Decoder-On1y的有GPT等,其采用“预测下一个单词”的方式进行预训练,之后通过指令微调等实现特定领域
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 智能 汽车行业 分析