- 1、本文档共10页,可阅读全部内容。
- 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
DeepSeek
每个人都可以读懂的大模型科普报告(政府篇)
DeepSeek大模型赋能政府数字化转型
厦门大学
厦门大学大数据教学团队作品2025年3月9日
国内高校大数据教学的重要贡献者
团队负责人:林子雨副教授
年轻力量:核心成员全部46周岁以下
结构合理:教学型、科研型、实验工程师
专注专业:从2013年至今,11年专注于大数据教学
团队特点:眼光前瞻、紧跟技术、创新实干、执行力强影响力高:多项指标在国内高校大数据教学领域领先
·教材数量
·教材占有率
·MOOC课程学习人数
·师资培养
·教学研讨会
·教学网站访问量
·在线讲座观看人数
团队联系方式:ziyulin@
林子雨
赖永炫
厦门大学大数据教学团队
谢怡郑海山
郑宇辉张琦
蔡炳跃
苏淑文
夏小云
陶继平
大模型系列报告(科普报告,非技术报告)
■报告1:大模型概念、技术与应用实践(面向社会大众)
■报告2:DeepSeek大模型赋能高校教学和科研(面向高校)
■报告3:DeepSeek大模型及其企业应用实践(面向企业)
■报告4:DeepSeek大模型赋能政府数字化转型(面向政府部门)
报告下载地址:/post/deepseek/
扫码下载报告
一目录—
1.大模型:人工智能的前沿
2.大模型产品
3.大模型的行业应用
4.政府部门本地部署大模型
5.DeepSeek大模型在政务服务领域的应用
6.DeepSeek大模型在政府工作中的应用
7.智能体的政务应用
8.AIGC与政府应用实践
厦门大学大数据教学团队作品
1.大模型:人工智能的前沿
1.1大模型的概念
1.2大模型的发展历程
1.3人工智能与大模型的关系
1.4大模型分类
1.1大模型的概念
大模型通常指的是大规模的人工智能模型,是一种基于深度学习技术,具有
海量参数、强大的学习能力和泛化能力,能够处理和生成多种类型数据的人工智能模型
通常说的大模型的大的特点体现在:
2020年,OpenAI公司推出了GPT-3,模型参数规模达到了1750亿
2023年3月发布的GPT-4的参数规模是GPT-3的10倍以上,达到1.8万亿
大模型的设计和训练旨在提供更强大、更准确的模型性能,以应对更复杂、更庞大的数据集或任务。大模型通常能够学习到
更细微的模式和规律,具有更强的泛化能力和表达能力
1.1大模型的概念
学习能力强
大模型可以从大量的数据中学习,
并利用学到的知识和模式来提供更精准的答案和预测。这使得它们在解决复杂问题和应对新的场景时表现更加出色
上下文理解能力
大模型具有更强的上下文理解能力,能够理解更复杂的语意和语境。这使得它们能够产生更准确、更连贯的回答
可迁移性高
学习到的知识和能力可以在不同
的任务和领域中迁移和应用。这意味着一次训练就可以将模型应用于多种任务,无需重新训练
语言生成能力
大模型可以生成更自然、更流利的语言,减少了生成输出时呈现的错误或令人困惑的问题
1.2大模型的发展历程
大模型发展历经三个阶段,分别是萌芽期、沉淀期和爆发期
微软
Tuig0-亿NLG
T5
110亿
2020
7
n
LeNet-5GAN
6万百万-干万级
20052014
OpenAIGPT31750亿
微软
Florence6.4亿
华为
盘古大模型
10850亿
OpenAI
GPT2
15亿
2019
202120222023
OpenAI
DALL-E2
120亿
基于规则的少量
数据处理
NVDIAMT-NLG5300亿
迅猛发展期
时间
1950
百度
人类情感理解和识别其他高阶能力
编程能力数学医学法律
概念抽象视觉识别
文字理解
大语言模型呈现核心能力金字塔结构
大语言模型
进阶能力
更为进阶的理解力
进阶能力
逻辑推理能力
核心能力
认知和学习能力
1.2大模型的发展历程
严
1.2大模型的发展历程
大模型发展对算力的需求演变
Lama2-70B
liBaichuan2-13B
Baichuan2-7B
GLM-130B
DeepSeek-R1-6718
DeepSeek-R1-Distill-Qwen-32B
DeepSeek-R1-Distil-Qwen-1.5B
wIOIA
Megatron-TuringNLG
GPT-3175B(davinci)
BE
文档评论(0)