AI动态汇总:MetaLIama4开源,OpenAI启动先锋计划.docx

AI动态汇总:MetaLIama4开源,OpenAI启动先锋计划.docx

  1. 1、本文档共21页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

请务必阅读正文之后的免责条款部分目录

请务必阅读正文之后的免责条款部分

AI重点要闻 4

MetaLIama4开源,评测跑分引争议 4

OpenAI启动先锋计划,旨在重塑AI模型评分体系 8

针对幻觉问题,华人团队发现大模型对数线性定律 9

豆包团队开源首个多语言代码修复基准Multi-SWE-bench 11

企业动态 12

商汤日日新SenseNovaV6多模态融合大模型发布 12

亚马逊推出全新AI语音模型NovaSonic 12

谷歌发布Gemini2.5FlashAI模型 14

企业动态 14

日本AI初创公司联合大型补习班使用AI挑战东京大学入学考试,英语能力亮眼,数学能力表现欠佳

..............................................................................................14

IDC:2028年中国AI总投资规模将突破1000亿美元,五年复合增长率达35.2 15

技术前沿 16

入选ICLR:特定领域仅用5训练数据,知识准确率提升14 16

DeepCoder-14B-Preview:媲美o3-mini的代码推理模型 18

风险提示 22

请务必阅读正文之后的免责条款部分图表目录

请务必阅读正文之后的免责条款部分

图表1:Llama4预训练 5

图表2:Llama4Scout评测表现 6

图表3:Llama4Lmarena跑分 7

图表4:Llama4六边形测试 8

图表5:知识遮蔽定律:理解、预测和预防大模型幻觉 9

图表6:知识遮蔽定律 10

图表7:对数线性规律 10

图表8:CoDA方法效果 11

图表9:Multi-SWE-bench 11

图表10:NovaSonic 13

图表11:中国AI与生成式AI市场规模预测 15

图表12:论文信息 17

图表13:KG-SFT架构 18

图表14:DeepCoder论文 19

图表15:GRPO+ 19

图表16:迭代上下文长度扩展 20

图表17:Verl-pipeline 20

图表18:DeepCoder性能 21

图表19:Codeforeces评测 21

请务必阅读正文之后的免责条款部分

请务必阅读正文之后的免责条款部分

AI重点要闻

MetaLIama4开源,评测跑分引争议

4月6日,Meta发布了首个基于MoE架构模型系列,目前披露了三个模型:Llama4Scout、Llama4Maverick、Llama4Behemoth。Llama4Behemoth模型尚未发布,仅是预告,但仅就前两款Meta已经称其为“迄今为止最先进的型号,也是同类产品中最好的多模态型号”。在Meta官方发布的信息中可以看到,Llama4在诸多评测中表现优异,在Lmarena.ai评测中,Llama-4-Maverrick一度攀升至第二名,仅次于Gemini-2.5-Pro。但随后Kcores评测中发现Llama4模型代码能力极差,同时有Meta内部员工爆料Llama4训练作弊和针对性优化,甚至有高管在重压之下离职并要求不要在Llama4技术报告中署名。

Llama4Scout,是16位专家的170亿激活参数的多模态模型,单个H100GPU可运行,同类SOTA,并拥有10M上下文窗口;Llama4Maverick,128位专家的170亿激活参数多模态模型,击败GPT-4o和Gemini2.0Flash,与DeepSeek-V3同等代码能力参数只要一半,主打与DeepSeek一样的性价比,单个H100主机即可运行;Llama4Behemoth:2万亿参数的超大超强模型,以上二者都由这个模型蒸馏而来;目前还在训练中;多个基准测试超过GPT-4.5、ClaudeSonnet3.7和Gemini2.0Pro。

Meta也披露了Llama4的训练细节,Llama4首次使用混合专家MoE架构,在MoE架构中,单个token仅激活总参数的一小部分。MoE架构在训练和推理方面具有更高的计算效率,固定训练FLOP成本情况下质量更高。

资料来源:图表1:Llama4预训练

资料来源:

Meta,

Llama4Maverick模型有17B个激活参数和400B个总参数。他

文档评论(0)

535600147 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:6010104234000003

1亿VIP精品文档

相关文档