100元4小时自制GPT!Karpathy亲授简易训练教程
AI传奇人物、前特斯拉AI总监Karpathy重磅推出全新开源项目「nanoc h a t」,以不到8000行代码复现ChatGPT全流程,只需一台GPU、约4小时、成本仅百美元。该项目在GitHub上线不到12小时即获4.2k星标!
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
麻 将AI传奇人物、前特斯拉AI总监Karpathy宣布发布全新项目nanoc h a t!
一个极简但完整的「从零构建ChatGPT」训练框架。

Karpathy说这是他写过的最疯狂的项目之一!
相当于每个人都可以自己拥有一个专属的ChatGPT。

项目刚放出还不到12个小时,GitHub星标就破4.2kStar!(还在持续疯涨中)

GitHub项目:https://github.com/karpathy/nanoc h a t
全是社区自来水流量,这就是Karpathy在AI领域的号召力!

与早期的nanoGPT不同,nanoc h a t不仅涵盖预训练,还囊括了从数据准备、预训练、中期训练(对话、多项选择题、工具使用)、SFT、RL微调到推理部署的全流程。
整个系统仅约8000行干净代码,启动一台GPU机器、运行一条脚本,4小时后你就能在网页界面与自己训练的「小ChatGPT」对话。
Karpathy将其称为LLM101n的「压轴之作」,同时也可能成为未来研究基线和开源社区的实验平台。
让我来仔细看看如何仅仅用8000行来「克隆」ChatGPT:
使用全新的Rust实现训练分词器
在FineWeb上对TransformerLLM进行预训练,评估多个指标下的CORE分数
在来自SmolTalk的用户-助手对话、多项选择题、工具使用数据上进行中期训练
进行SFT,在世界知识多项选择题(ARC-E/C、MMLU)、数学(GSM8K)、代码(HumanEval)上评估聊天模型
使用「GRPO」在GSM8K上对模型进行强化学习微调(RL)
在带有KV缓存的引擎中实现高效推理,简单的预填充/解码,工具使用(在轻量级沙箱中的Python解释器),通过CLI或类ChatGPT的网页界面与其交互。
撰写一份单一的Markdown成绩单,总结并将整个过程游戏化。
麻 将项目全程花费低至约100美元(约在一台8XH100节点上训练4小时)。
可以训练、克隆一个可以对话的小型ChatGPT,它能创作故事/诗歌、回答简单问题。
只需要训练约12小时即可超过GPT-2的核心指标。
随着进一步扩展到约1000美元(约41.6小时训练),模型会迅速变得更连贯,能解决简单的数学/代码问题并做多项选择题。
训练24小时的模型(其FLOPs大致相当于GPT-3Small125M,约为GPT-3的1/1000)在MMLU上能进入40分段,在ARC-Easy上进入70分段,在GSM8K上进入20分段等。
总结一下就是:
100美元→可训练出一个能写诗、回答基础问题的OpenAI同款「小型ChatGPT」;
1000美元→达到近GPT-2以上的表现,可做基础推理与代码生成。
麻 将这个项目体现出他的核心理念:
「降低 LLM 研究与复现门槛,让每个人都能亲手训练自己的模型。」
这种民主化路线,与他在nanoGPT时期倡导的「从零实现Transformer」如出一辙。

项目地址:https://github.com/karpathy/nanoGPT
Karpathy说他的目标是把完整的「强基线」栈整合到一个连贯、极简、可读、可修改、可最大化派生的仓库中。
nanoc h a t将成为LLM101n(仍在开发中)的压轴项目。
Karpathy认为nanoc h a t也有可能发展成一个研究工具或基准,就像之前的nanoGPT一样。
nanoGPT教你造大脑,nanoc h a t教你造ChatGPT。
麻 将如果说nanoGPT是「Transformer源码教学项目」。
那么,nanoc h a t则是「LLM生态系统微缩版」、OpenAI同款、你的专属AI。
二者关系可理解为「从神经网络基础到产品级对话系统」的两步闭环。
从Vibe Coding到nanoGPT,再到如今的nanoc h a t,Karpathy不愧是「AI教育者」的最佳代言人。
这一「疯狂之作」并非狂想,而是Karpathy对AI开放、可学习、可复现理想的又一次践行。
小型ChatGPT效果展示
Karpathy在WebUI部署了nanoc h a t项目。
他还给出了「与价格为100美元、运行4小时的」nanoc h a t的示例对话。
很……有趣!

下面这张图展示的是Karpathy在nanoc h a t「$100速度跑」实验(即只用一台GPU、约4小时训练出的ChatGPT 小模型)中生成的「成绩单」部分内容,说明模型规模、训练耗时、以及在各类标准评测上的性能。
Characters:333989 —— 代码总字符数。
Lines:8304 —— 大约 8300 行干净、注释良好的代码。
Files:44 —— 工程文件数量。
Tokens:约83,497 —— 代码中的token数(大致对应8万词)。
Dependencies:2004行uv.lock依赖清单 —— 表明依赖极少、项目结构轻。
这些数字展示了nanoc h a t的「极简」精神:完整实现了 ChatGPT 的训练、微调与推理,却仍保持在8000行代码以内。

参考资料:
https://x.com/karpathy/status/1977755427569111362
https://github.com/karpathy/nanoc h a t
热门专题
热门推荐
加密货币行业翘首以盼的监管里程碑,终于有了实质性进展。美国证券交易委员会(SEC)主席保罗·阿特金斯(Paul Atkins)近日证实,那份允许加密项目在早期获得注册豁免权的“安全港”框架提案,已经正式送抵白宫,进入了最终审查阶段。 在范德堡大学与区块链协会联合举办的数字资产峰会上,阿特金斯透露了这
微策略Strategy报告:第一季录得144 6亿美元浮亏 再斥资约3 3亿美元买进4871枚比特币 市场震荡的威力有多大?看看Strategy的最新季报就明白了。根据其最新向美国证管会(SEC)提交的8-K报告,受市场剧烈波动影响,这家公司所持的比特币在第一季度录得了一笔惊人的数字——144 6亿
稳定币巨头Tether的动向,向来是加密世界的风向标。这不,它向Web3基础设施的版图扩张,又迈出了关键一步。公司执行长Paolo Ardoino在社交平台X上透露,其工程团队正在全力“烹制”一个新项目——去中心化搜索引擎 “Hypersearch”。这个消息一出,立刻引发了行业的广泛猜想。 采用D
基地位于Coinbase旗下以太坊Layer2网络Base的Seamless Protocol,日前正式宣告了服务的终结。这个曾经吸引了超过20万用户的原生DeFi借贷协议,在运营不到三年后,终究没能跑赢时间。它主打的核心产品是Integrated Leverage Markets(ILMs)——一
PAAL代币揭秘:深度解析Web3社区治理的核心钥匙 在去中心化自治组织的浪潮中,谁真正掌握了项目的话语权?PAAL代币提供了一套系统化的答案。它不仅是生态内流转的价值媒介,更是开启链上治理大门的核心凭证。通过持有并质押PAAL代币,用户能够对协议升级、资金分配乃至战略方向等关键事务投出决定性的一票





