- 1、本文档共58页,可阅读全部内容。
- 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
;
大模型特点
从海量数据中自动学习知识
Big-dataDriven,模型基于大规模语料训练而成;
Multi-tasksAdaptive,支持多种任务,包括自然语言生成NLG和自然语言理解NLU类的任务;
Few-shot(Zero-shot),在少甚至无标注样本的条件下支持推理(自监督学习)。
2;
AI大模型的发展历程
2017年,Google提出Transformer框架在机器翻译中取得显著进步,其分布式学习和强大编码能力受到广泛关注。
2018年Google和OpenAI基于Transformer提出了预训练语言模型BERT和GPT,显著提高了NLP任务的性能,并展示出广泛的通用性。
众多预训练模型相继涌现,OpenAI以GPT2、GPT-3、ChatGPT等系列模型为代表,持续引领大模型时代的浪潮;
图1:2018-2023年模型参数规模变化图
SwitchTransformerM6-10J
10000
Pa(uB)GaLM(1.2T)
1000
edatroPTarMin(g540B)
100
CPM-2-MoE
(198B)
10
(11B)
(11日)
1
0.1
(340M)
0.01
20192020202120222023
来源:中国人工智能系列白皮书;
在高端算力芯片进口受限的约束下,一定程度上制约着国内科技大厂的算力投资和价格内卷
英伟达每2年推出一个微架构,对产品线进行升级,6月2日,英伟达在Computex2024大会上发布了至2027年的芯片路线图,GPU迭代周期由2年缩短到1年,走类似英特尔的Tick-Tock模式(一年工艺一年架构)。同时,英伟达践行“BuyMoreSaveMore”让算力成本指数级下降。
图3:英伟达GPU架构演进图图4:训练芯片算力成本呈下降趋势;
尽管在数据语料和人才方面也存在明显挑战,但此两方面是国内通用大模型公司打造领先优势的关键;
科技大厂
文心一言讯飞星火
通义千问华为云
HUAWEI
火山引擎BlueLM蓝心大模型
36O智脑天工AI
HIKVISION小爱同学
;
大模型测评方法论
综合各测评平台的方法论来看,在基础能力的测评维度基本相同,仅测评数据集和评估权重占比不同;而在基础能力之外,各测评平台侧重点不同
OpenCompass2.0司南IDC沙利文;
例如,IDC的测评方法兼顾了基础能力与应用能力,比较有代表性
IDC测试题目分为基础能力和应用能力两个大类共7个维度
IDC采取实测的方式,成立产品测试团队,通过多个维度对基础大模型及相关产品进行评测,并邀请外部专家团队深入分析各个产品答案准确性、合理性等,在审核委员会的监督下,最终得出各厂商的评估结果,供用户选型参考。;
本报告不直接测评通用大模型,而是综合各方测评结果,并结合大模型在汽车行业的应用
我们跟踪研究了多个通用大模型,其中包括:;
产业端
国产AI芯片自主研发
为确保中国大模型的长远发展和避免外部制裁风险,国内Al计算芯片的自主研发将成为关键战略方向。
数据产权标准深化
优化和完善现有数据标准和规范,是推动大模型“燃料”质量提升和数量增长的重要驱动力,在2024年将作为产业发展的首要任务。
“套壳”微调策略
为满足产业实际需求并适应中小企业的发展特点,“套壳”微调(即在现有大模型基础上进行针对性调整)将成为除行业巨头外企业的主要发展策略。;
过去四年大语言模型在MMLU榜单(评估大模型知识能力)上的性能表现
Gopher280
250
150
100;
多模态模型参数量正在逐渐缩减
modelsize
Gem
GPT
.16)
OpenCompassScore
GPT-4Vlevelperform
end-sidecomputation
OwonVLMax
文档评论(0)