黄仁勋基金会采购1.08亿美元AI算力 与CoreWeave合作
5月14日,路透社披露了一则引人注目的消息:英伟达(NVDA.US)首席执行官黄仁勋及其夫人Lori名下的基金会,近期从AI云计算公司CoreWea ve(CRWV.US)手中购置了价值高达1.08亿美元的算力资源。这笔巨额采购并非用于商业目的,而是被全数捐赠给了大学及其他非营利研究机构,旨在支持前沿的科学探索与人工智能研究。不仅如此,英伟达还承诺将为部分受赠方提供免费的工程技术支持。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
CoreWea ve这家公司,在AI算力圈内可谓声名鹊起。它专注于为人工智能应用提供基于图形处理单元(GPU)的云计算服务,而其所依赖的核心硬件,正是由英伟达设计。两者的合作关系早已超越简单的买卖。今年1月,英伟达向CoreWea ve注资20亿美元,一度成为其第二大股东;去年,双方更是签署了一份价值63亿美元的云计算容量保障协议,约定英伟达将购买CoreWea ve未售出的任何云资源。
事实上,英伟达近年来对AI初创企业及“新云”平台(neoclouds)的数十亿美元级投资,包括对ChatGPT创造者OpenAI的支持,已让部分市场观察者心生疑虑。他们担忧这种深度绑定可能构成某种形式的循环融资,或将资源过度集中于特定生态。而此次通过基金会进行的巨额算力捐赠,无疑再次凸显了英伟达在构建和滋养AI研究生态方面的深远布局。
就在上周,CoreWea ve在公布业绩时,因组件成本上涨,上调了其资本支出预测的下限。这一细节或许也从侧面印证了当前AI算力基础设施领域持续高涨的需求与投入热度。
相关攻略
英伟达首席执行官黄仁勋的基金会以1 08亿美元从AI云服务商CoreWeave采购算力资源,并全部捐赠给大学及非营利研究机构,以支持前沿科研。英伟达还将为部分受赠方提供免费技术支持。此举进一步凸显了英伟达在构建AI研究生态方面的深度布局。CoreWeave是英伟达的重要合作伙伴,其业务高度依赖英伟达硬件。
在AI需求爆发的背景下,GPU市场出现供需严重失衡。英伟达CEO黄仁勋将旧款GPU价格持续上涨的现象比喻为“好酒效应”,指出其升值速度甚至超过葡萄酒陈化。核心原因在于全球AI业务对算力的巨大需求,使得数据中心极度依赖GPU。这种需求从上游芯片制造到下游云服务贯穿整个产业链,导致包括四五年前旧型号在内
开发高性能AI模型,如同规划一座超级工程,资源投入巨大而效果难以精确预估。长期以来,行业主要依赖经验判断算力需求,这种不确定性使得研发决策充满风险。 如今,这一局面迎来转机。一项由哈佛大学与斯坦福大学合作的研究,为AI性能预测提供了科学工具。研究团队于2026年2月在arXiv预印本平台(论文编号a
亚马逊CEO安迪·贾西刚刚发布的2026年度股东信,在全球科技圈投下了一枚重磅冲击波。信中不仅火药味十足,几乎点名了所有核心赛道的竞争对手,更关键的是,首次清晰披露了一项雄心勃勃的计划:未来四年,将投入高达2000亿美元的资本开支。这笔巨资将精准投向AI算力基建、自研AI芯片以及低轨卫星互联网三大战
2026年4月9日,腾讯云发布的一则公告在人工智能开发者社区中引发了广泛关注:自5月9日起,其AI算力服务、容器服务TKE-原生节点以及弹性MapReduce产品的价格将统一上调5%。对于生效前已购买服务的用户,当前订单价格维持不变,新价格将在下一个续费周期开始执行。继阿里云、百度智能云之后,腾讯云
热门专题
热门推荐
本文梳理了2026年主流数字资产交易平台的特点与选择策略。重点从安全性、资产丰富度、交易体验、创新功能及合规性等维度进行分析,旨在帮助用户根据自身需求,在众多平台中做出明智选择,而非简单罗列排名。选择平台需综合考量资金安全、操作习惯与长期发展愿景。
本文梳理了2026年现货交易所的竞争格局,从交易深度与流动性、资产安全与合规性、用户体验与产品创新三个维度进行深度分析。文章指出,头部平台在合规与技术创新上持续领跑,新兴交易所在细分市场寻求突破,行业整体呈现出专业化、合规化与用户体验并重的发展趋势,为不同需求的用户提供了多元选择。
本文梳理了2026年主要数字资产交易平台的综合表现,从安全性、资产多样性、用户体验及创新服务等维度进行分析。榜单反映了行业向合规与专业化发展的趋势,头部平台在技术架构与风控体系上持续投入,新兴平台则凭借细分领域创新获得关注。投资者需结合自身需求,理性评估平台特点与风险。
今年四月,AI网络初创公司Aria Networks携1 25亿美元融资高调登场,并向业界抛出了一个直指核心的判断:下一阶段AI基础设施的竞争,焦点已不仅仅是堆砌更多的GPU,而在于能否构建一个能充分释放这些算力潜能的“神经网络”。 这家由前Arista和Juniper高管创立、总部位于帕洛阿尔托的
仅凭一张家用RTX 4090显卡的24GB显存,就能流畅运行一个拥有320亿参数的AI大模型,一口气读完6份长文档并自动生成周报?这并非极客魔改,而是来自MIT、英伟达与浙江大学研究者的最新突破。 这项名为TriAttention的技术,精准瞄准了大模型推理中的核心瓶颈——KV缓存显存占用。其核心思





