首页 游戏 软件 资讯 排行榜 专题
首页
科技数码
硅谷精英弃用OpenAI转投Kimi,白宫AI主管也力荐:性价比太高!

硅谷精英弃用OpenAI转投Kimi,白宫AI主管也力荐:性价比太高!

热心网友
99
转载
2025-12-03

最近Reddit上一则消息引发了热议:硅谷似乎正在从昂贵的闭源模型转向更经济实惠的开源替代方案。

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

被称为“SPAC之王”的知名美国企业家和投资人Chamath Palihapitiya公开表示,他的团队曾是Bedrock平台的前20大用户,但现在已将大量工作负载迁移至Groq平台上的中国模型Kimi K2,因为该模型的性能表现更为出色,而且比OpenAI和Anthropic便宜得多。

Kimi K2是由月之暗面团队开发的混合专家(MoE)大型语言模型,总参数量达到1万亿,激活参数量为320亿。此前,知名云端开发平台Vercel、AI编程助手Cline和Cursor、Perplexity和GensparkAI应用也都相继宣布接入Kimi K2模型。

“最终决定切换到开源模型,核心考量就是成本因素。”Palihapitiya透露,他们使用的编程工具仍然通过Anthropic的系统运行,Anthropic的技术很棒但成本太高。而DeepSeek模型一经推出就便宜很多,但要完全切换过去还得花费几周甚至几个月时间。“AI模型迭代这么快,要突然把所有提示词切换到不同的大语言模型上并不容易,因为这些模型需要经过微调与工程适配,才能在同一个系统里正常工作。”

当谈到模型所有权及风险问题时,Palihapitiya介绍,Groq接入中国模型的做法是:拿到这些模型的源代码,进行部署、分支开发,最终把模型部署在美国本土,由美国人在美国本土的数据中心里操作。服务模式上,由于Groq是把开源模型部署在自有基础设施上,他们通过开放的API就能实现“token进、token出”。

有网友将此举称为“疯狂的举动”,还有人评价道,“真正的结构性转变”,“下注OpenAI没有预见到这种情况的到来”,“性能和成本正在改写AI产业格局!”

不过,也有网友认为,“Palihapitiya持有Groq公司相当多的股份,他之所以推动这件事,不过是为了给自家投资站台罢了。

而该消息最早出自Palihapitiya近期参与的一档播客节目,当时的对话嘉宾还包括白宫首位人工智能主管、前PayPal首席运营官David O. Sacks以及企业家David Freeberg、知名天使投资人Jason Calacanis。节目中,他们还探讨了DeepSeek等这类中国优秀开源AI模型给美国AI产业带来的压力和困境。

以下为对话内容,InfoQ在不改变原意的基础上进行了编辑和删减:

“中国模型太便宜了”

Jason Calacanis:中国大语言模型公司DeepSeek发布了新开源的DeepSeek 3.2 EXP模型,这款新模型给美国AI行业带来了压力。该新模型速度更快、成本更低,还搭载了一项名为DSA(DeepSeek稀疏注意力机制)的新功能,能加快大型任务的训练与推理速度。最关键的是,它能将API成本降低高达50%。新模型的收费标准为:每百万次输入28美分,每百万次输出42美分。而Anthropic公司的主流模型Claude(很多开发者和初创公司都在使用)的同类服务收费约3.15美元,价格是DeepSeek新模型的10到35倍。显然,现在各家都在快速降价。

另外要说明的是,这个模型是开源的,大家要清楚,它已经可以在亚马逊云科技和GCP(谷歌云)上使用了,至少3.1版本是这样。我不知道3.2版本现在是否也能在这些平台上用,但我从很多初创公司那里听说,他们正在测试、试用这个模型,有些甚至已经投入使用了,原因就是它太便宜了。

Kimi模型是由月之暗面开发的,这是该领域另一家中国初创公司。

David Freeberg:我认为当前AI领域正在进行全面的架构重构,而且从成本和能耗角度看,我们还处于“每token成本优化”的初期阶段。据我了解,美国的实验室目前也在推进类似方向的研究,预计会取得相近的成果。或许中国在这方面稍占先机,但我们更该关注整个技术发展的趋势。我在想,如果未来几个月内,这些架构革新真能让成本和能耗降低10倍、100倍、1000倍甚至1万倍,从模型的能耗需求和每token成本来看,会带来怎样的影响?

Chamath Palihapitiya:我们是Bedrock(亚马逊云科技AI服务平台)的前20大用户,所以我来说说实际情况。我们已经将大量工作负载转移到了Groq平台上的Kimi K2模型,因为它的性能确实强得多,而且说实话,比OpenAI和Anthropic的模型便宜太多了。但问题在于,我们使用的编程工具必须通过Anthropic的系统运行,Anthropic的技术确实很棒但成本实在太高了。

现在的难题是,AI模型迭代这么快、互相追赶,要突然把所有提示词切换到不同的大语言模型上并不容易,因为这些模型需要经过微调与工程适配,才能在同一个系统里正常工作。比如说,我们为了优化Kimi或Anthropic模型的代码生成(codegen)或反向传播(back propagation)效果所做的调整,没办法直接切换到DeepSeek模型上。即便DeepSeek模型一推出就便宜很多,要完成切换也需要几周甚至几个月时间。所以这就像一场复杂的“博弈”,作为用户,我们一直很纠结:是该直接切换,承受过程中的麻烦?还是等着其他模型迎头赶上?

但说实话,目前还没办法让切换变得简单。上周末有一家拥有大型模型的公司来找我们,提前展示了他们的下一代模型。模型本身确实很出色,但周一早上我和团队开会时就懵了:“我们该怎么办?”完全没头绪。是放弃现有方案?还是转而投入资源,把所有工作负载重构后迁移到新模型上?我在想,如果企业处理的任务越复杂,这个问题就越难以解决。

白宫AI主管:美国开源模型落后于中国

David O. Sacks:我觉得开源这个话题其实很有意思。我本人很支持开源软件,因为它在某种程度上能够制衡大型科技公司的权力。回顾科技史,我们会发现,很多重要的技术领域最终都会被一两家科技巨头垄断,它们掌握着绝对的控制权。而开源提供了另一条路径,开发者社区会把技术成果公开,任何人都能拿过来在自己的硬件上运行,不再依赖巨头。可以说,这是一条通往“软件自由”的道路。从这一点来看,开源是很好的。

但现在的问题在于,所有领先的开源大模型都来自中国。中国在开源领域的投入力度非常大,比如DeepSeek就是首个主流的中国开源大模型,Kimi也是,还有阿里巴巴的通义千问Qwen。所以如果说希望美国在AI竞赛中获胜,我们其实都很矛盾:一方面,开源方案能替代闭源的专有模型,这是好事;但另一方面,这些优秀的开源模型全都来自中国。当然,美国也有一些重要的尝试,比如Meta就为Llama模型投入了数十亿美元。但Llama 4模型发布后,很多人都觉得不尽人意。而且有消息称,Meta可能会放弃开源,转向纯闭源的专有模式。OpenAI也发布过开源模型,但性能远不及他们的前沿模型。

也有一些初创公司在做尝试。比如有家叫Reflection的公司,前景看起来不错,他们正在开发一款美国本土的开源模型。但目前来看,在AI领域,开源模型可能是美国唯一落后于中国的板块。至于技术栈的其他环节,芯片设计、芯片制造、半导体制造设备,乃至数据中心,我认为美国都是领先的。但在开源这个领域,确实让人忧虑。

Jason Calacanis:有两点值得一提。第一,OpenAI名字里的“Open”(开放),原本意味着要做开源,现在想来还挺讽刺的。第二,苹果目前在AI领域落后于所有同行,却推出了一款很有意义的开源模型。所以说落后的时候就像现在的中国;领先了就关起门来,比如后来凭借ChatGPT占据优势的OpenAI。对了,我跟你说过苹果的Open ELM吗?苹果的“高效语言模型”(Efficient Language Models),这个模型值得关注。

Chamath Palihapitiya:我能告诉你什么会让开源与闭源的竞争更激烈:本质上,这已经变成了美国和中国的对抗。美国走闭源路线,中国走开源路线,至少在具备规模效益的模型上是这样。

David O. Sacks:但其实不一定要这样,对吧?因为美国也可以推出开源模型。

Chamath Palihapitiya:没错,你说得对。我只是想说,就当下的实际情况而言,高性能的闭源模型都是美国的,高性能的开源模型都是中国的。接下来会面临什么问题呢?Freeberg之前提到过,就是生成输出token的能耗和成本。昨天我和一位大型能源企业的CEO聊过,情况不太乐观。“未来五年的趋势基本确定了。如果找不到有效的解决方案,电价未来五年肯定会翻倍。”现在你想想,AI作为消费者产品,人们会如何看待AI的使用情况?像我们这样的公司,为了尽量降低成本,都在找最便宜的模型来用。

但很快,成本问题会变成能耗问题,事情会变得很复杂。而且他还提到,这对科技巨头来说也是个巨大的公关危机。本来大家对科技公司的印象就不好,要是再说“电费涨了一倍”,那它们就麻烦了。必须赶紧找出路,不然形象会一落千丈。不管事实是不是这样,大家都会这么想。

他提出了两个解决方案方向,我觉得值得考虑。第一个是“交叉补贴”,简单说就是让科技公司按更高的费率缴纳电费,以它们的现金流完全承担得起;而且这个费率要明显高于当地其他用户。这样一来,普通家庭的电费能保持稳定甚至有所下降,而数据中心的电费则提高,由Meta、谷歌、苹果、亚马逊云科技这些手握数千亿现金流的巨头来承担。第二个办法是建立一套机制,在数据中心周边的每户家庭都安装电池之类的储能设备。这样这些家庭就能更好地应对电价上涨,不用多花钱。

Chamath Palihapitiya:对,没错。我之前一直在说,选择开源模型的经济逻辑是合理的,毕竟一次性投入也不起后续的其他成本。

中国模型入美,如何安全“运作”?

David O. Sacks:能不能解释下你们在用Kimi这类模型的时候,具体是怎么运作的呢?因为我觉得很多人对“开源模型”的理解有误区。不少人觉得,中国公司发布的模型就算公开了,所有权还是归他们所有。但事实不是这样的。一旦模型发布,所有权就不再归他们了,任何人都能获取代码使用。而且你在中文云上运行数据也不会传回中国,而是把模型拿到自己的基础设施上运行。你能详细说说这个过程吗?

Chamath Palihapitiya:我们刚起步时唯一的选择是Bedrock,那是亚马逊云科技提供的一项服务,简单说就是“推理即服务”。当时我们开发产品需要用到推理功能、需要推理token,所有需求都是Bedrock来承接的。它有点像AI领域的亚马逊云科技垂直领域的专门支持。他们有自自己的服务器,都放在美国的数据中心里,由美国人管理。他们会筛选一批模型,确保这些模型的使用不受限制。我们最初起步时这样的。但和所有业务一样,为了优化运营模式,降低成本,我们一直在找亚洲马逊云科技之外的

来源:https://36kr.com/p/3528701463551108
免责声明: 游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

最新APP

宝宝过生日
宝宝过生日
应用辅助 04-07
台球世界
台球世界
体育竞技 04-07
解绳子
解绳子
休闲益智 04-07
骑兵冲突
骑兵冲突
棋牌策略 04-07
三国真龙传
三国真龙传
角色扮演 04-07

热门推荐

企业级RPA卓越中心建设指南:从传统脚本到Agent架构
业界动态
企业级RPA卓越中心建设指南:从传统脚本到Agent架构

一、 宏观IT架构痛点:传统RPA CoE为何难以为继? 走过数字化建设的初期阶段,很多企业都遇到过类似的瓶颈:自动化项目起初顺风顺水,一旦进入规模化阶段,却常常陷入“先易后难、最终停滞”的怪圈。复盘起来,这背后有几个根本性的IT架构痛点,几乎成了行业通病。 首当其冲的,是“脚本维护地狱”。传统RP

热心网友
04.29
芝麻交易所网页版进入入口 芝麻gate官方网页版点击进入
web3.0
芝麻交易所网页版进入入口 芝麻gate官方网页版点击进入

芝麻交易所(芝麻gate)官方登录指南:安全、高效访问全攻略 对于数字资产交易者而言,一个稳定、安全的平台入口是投资旅程的起点。本文将为您详细拆解芝麻交易所(芝麻gate)官方网站的登录与访问方法,助您一步到位,安全便捷地开启交易之旅。通过其官方网页版,您不仅能获得稳定高效的交易环境,还能实时掌握市

热心网友
04.29
为什么底层DOM树变更总让自动化停摆?探索业务端自主修复
业界动态
为什么底层DOM树变更总让自动化停摆?探索业务端自主修复

一、 传统自动化架构的脆性原理:从一行报错日志说起 聊到企业IT架构的演进,有一个成本黑洞常常被忽视,那就是自动化流程的运维。很多CIO都有同感:业务系统一旦SaaS化或进入敏捷迭代的快车道,原先那些设计精良的自动化脚本,失效就成了家常便饭。望着堆积如山的维护工单,一个核心课题浮出水面:如何打造一个

热心网友
04.29
智能平台全生命周期管理:从散装RPA到企业级智能体中枢的
业界动态
智能平台全生命周期管理:从散装RPA到企业级智能体中枢的

话说回来,当企业超自动化的浪潮进入深水区,聪明的 CIO 们早就意识到,单纯地采购一个个单点工具,已经很难撑起他们对 IT 资产投资回报率的严苛期待了。数字员工队伍在爆炸式增长,但如果缺乏一套系统化的、覆盖从诞生到退役的智能平台来管理,局面很快就会失控:运维成本飙升、代码资产变成谁也看不懂的黑盒、合

热心网友
04.29
突破底层脆性:验证码导致自动化脚本中断的架构解析与AI破
业界动态
突破底层脆性:验证码导致自动化脚本中断的架构解析与AI破

企业级IT自动化运维与业务流程重塑,有一个环节堪称“硬骨头”和“深水区”——那就是系统登录和高频数据交互。许多CIO和IT架构师都遇到过这样的窘境:业务系统的安全策略一升级,各种预料之外的动态校验,尤其是验证码,就冒了出来,结果直接导致自动化脚本中断。这不仅仅是一场影响流程服务等级的运维事故,更会让

热心网友
04.29