当前位置: 首页 > AI > 文章内容页

国产DeepSeek大模型登Nature封面,R1训练成本低至208万

时间:2025-09-19    作者:游乐小编    

中国人工智能发展迎来里程碑突破——深度求索(DeepSeek)公司凭借R1大模型的研究成果,成为首家登上国际顶级期刊《自然》杂志封面的中国AI企业。这一历史性成就确立了我国在基础大模型研究领域的国际领先地位,此前仅有DeepMind凭借AlphaGo和AlphaFold收获过类似荣誉。

《自然》最新刊载的论文首次详细披露了R1模型的训练成本:这款660亿参数规模的超大模型仅花费29.4万美元(约208万元人民币)即完成训练。研究人员采用512张H800 GPU并行计算,其中R1-Zero训练耗时198小时,R1训练耗时为80小时。据团队介绍,整个训练过程按每GPU小时2美元的租赁成本核算,远低于业内常见千万美元级别的投入规模,这一超高性价比在年初论文发布时便引发美股市场的强烈反响。

在数据质量控制方面,研究团队系统性地解答了业内的质疑。补充材料显示,R1的训练数据由五大专业模块组成:包含2.6万道定量题目的数学数据集(含竞赛与考试真题)、1.7万道算法题和8千处代码缺陷构成的编码数据集、2.2万道涵盖理科各科的STEM选择题、1.5万道逻辑推理题(包括真实及合成题目),以及6.6万道覆盖创意写作与文本处理的通用能力评估集。

模型安全体系展现出国际一流水准。团队创新性地构建了五维评估框架:整合最新的风险控制系统、六个公开安全基准测试、基于分类学的内部安全测试集、跨语言安全评估以及抗越狱攻击测试。验证结果表明,R1的基础安全性能与GPT-4o处于同等水平,配合专项风险控制系统后防护能力更进一步提升。

在技术实现层面,研究团队突破性地采用纯强化学习方法。以DeepSeek-V3-Base为基座模型,通过GRPO(群体相对策略优化)算法进行强化训练,使R1-Zero在AIME 2024数学测试中的pass@1成绩从15.6%大幅提升至71.0%,经集体决策后更达到86.7%的优异表现,与OpenAI o1模型不相上下。后续迭代的R1版本通过冷启动数据优化、拒绝采样等技术手段,有效解决了早期版本在可读性和多语言混合方面的不足。

学术影响力呈现指数级增长。目前该研究在谷歌学术的引用量已达3596次,HuggingFace平台的开源模型下载量突破1090万次(位居开源模型榜首),GitHub项目获得9.11万星标。知名评审专家、Hugging Face工程师Lewis Tunstall特别指出,这是首个通过严格同行评议的大型语言模型研究,为学术界确立了新的质量标杆。俄亥俄州立大学Huan Sun教授评价认为,该研究已经实质性地影响了全球大模型强化学习的研究方向。

开源生态建设彰显中国AI创新路径。团队在HuggingFace平台全面开放了R1系列模型权重,同时开源基于Qwen2.5和Llama3架构的精简版本。这种开放式研究范式获得国际学界广泛认可,论文重点介绍的"推理模式迁移"技术已证实可使Qwen2.5-32B等基础模型通过知识蒸馏获得显著性能提升。

热门推荐

更多

热门文章

更多

首页  返回顶部

本站所有软件都由网友上传,如有侵犯您的版权,请发邮件youleyoucom@outlook.com