首页 游戏 软件 资讯 排行榜 专题
首页
AI
国产AI基础设施变革新势力崛起与未来趋势

国产AI基础设施变革新势力崛起与未来趋势

热心网友
88
转载
2026-05-16

近期,AI领域迎来一项重要进展:被业界广泛称为“源神”的DeepSeek,开源了包括FlashMLA、DeepEP、DeepGEMM、DualPipe以及3FS系统在内的一系列底层核心组件。这一系列举措,几乎覆盖了AI基础设施(AI Infra)中从计算、网络到存储的关键环节,为整个行业的性能优化与成本控制提供了极具价值的实践参考。

这股开源浪潮,也正在激发国内AI基础设施领域的深度思考与积极行动。行业参与者们都在探索,如何基于这些前沿思路,为大模型的训练与推理阶段,寻找更高效、更经济的系统性解决方案。驿心科技,正是其中一家快速响应的创业公司。

上周DeepSeek开源3FS等组件,实际上揭示了一个核心挑战:数据在存储、网络传输与GPU计算之间的协同效率,已成为制约当前AI训练和推理性能的关键瓶颈之一。而突破这一瓶颈,正是驿心科技全力投入研发的技术方向。

驿心科技创立于2023年9月,由前旷视科技创始合伙人吴文昊创立。公司的目标清晰而坚定:从基础架构层面进行原创性研发,基于标准的GPU服务器本地存储和通用的以太网络,构建出能够媲美甚至超越传统基于RDMA存储网络或商业训练存储方案的整体能力。这一路径的优势在于,能显著降低大模型实际部署的总体拥有成本(TCO)和工程复杂度,为后续在DeepSeek这类主流大模型上进行深度性能优化奠定基础,最终全面提升模型的运行效率与实用性。

一个关键细节值得关注:驿心科技解决方案所依托的硬件,完全是标准的企业级服务器和通用网络设备,无需任何定制化的硬件、专用网络或深度修改的系统内核。相比之下,传统AI基础设施部署中常见的高性能文件存储方案,往往需要搭配定制服务器、特定网络交换设备以及深度定制的操作系统。两者对比,驿心提出的这套AI基础设施一体化方案,在部署灵活性、总体成本和运维效率上的优势便凸显出来。

架构演进催生的新机遇

通常,我们将AI基础设施划分为硬件供应链和云服务两层。但随着过去两年AGI(通用人工智能)技术的迅猛发展,大模型本身正呈现出“基础设施化”的明显趋势,甚至有观点认为,未来模型可能演变为一种新的“操作系统”。

在这一宏观背景下,技术架构的重构与供应链的重塑,为AI基础设施领域的创业公司开辟了新的市场空间。

首先从架构层面看。高性能计算(HPC)、云计算和AI三者对基础设施的需求各有侧重。传统云基础设施并非专为AI或HPC工作负载设计,这种错配会导致资源利用效率的损耗:云服务的商业模式本质上是围绕网络虚拟化构建,通过共享(超卖)CPU、网络、存储等资源来实现盈利,而当其无法以最优方式支撑计算密集型AI任务时,价值损耗便产生了。

而AI基础设施的兴起,正在重构这一价值链条。因为AI基础设施是以GPU计算为核心进行设计的,传统云厂商受制于其通用架构和既有利益,很难提供完全最优化的底层设施。

再看AI与HPC。AI虽源于HPC,两者都追求千卡、万卡级别的集群规模,但计算范式存在本质区别:HPC聚焦于科学仿真模拟,追求计算过程的确定性和结果的高精度;而AI的核心是概率统计,其目标是让下一个词元(token)的预测更加准确。

除了技术架构,国内AI芯片及服务器供应链的重构也在催生巨大的基础设施机遇,DeepSeek的崛起无疑加速了这一进程。

然而,在产业重构的同时,算力设备成本、能源消耗、数据中心空间限制和资金投入这四大现实瓶颈,也正严峻地制约着AI算力的规模化发展。针对这些核心痛点,驿心科技依托GPU服务器本地存储与通用以太网络,构建了一套独具特色的一体化解决方案:

Tier-0 ← Tier-1 存储架构

首先是AI集群一体化方案的技术创新。驿心的Tier-0存储架构,能够高效利用GPU服务器内部的本地存储空间。这意味着企业在构建AI计算集群时,无需再额外部署独立的专用存储集群和昂贵的存储网络,从而大幅降低了模型落地的初始投资和长期运维成本,并显著加快了集群部署上线速度。这不仅减轻了企业和科研机构的经济负担,更使得前沿的AI模型能够以更快的节奏从研发走向规模化应用。

其次在AI数据存储与管理层面,驿心科技支持跨多云、多数据中心的全局统一文件系统,实现大模型数据的上传、同步与版本更新无缝衔接,提供集中化的存储管理视图,极大提升了AI研发中的数据访问与管理效率。该方案不仅能兼容传统的文件与对象存储接口,也能与DeepSeek最新开源的3FS并行文件系统良好协同;它具备智能的数据分层与缓存机制,能动态响应AI工作负载对数据的高速访问需求,提升训练和推理任务的数据吞吐速度;同时,它还提供了强大的数据安全、保护与容灾功能,并能够弹性扩展,轻松应对AI项目中持续快速增长的海量数据。

在模型优化层面,驿心科技积极拥抱并融入开源生态。其基础设施解决方案为后续在DeepSeek等通用大模型上的深度优化提供了坚实基础,能够帮助客户充分挖掘模型潜力,实现训练与推理的全流程加速,从而在激烈的市场竞争中构建技术优势。

驿心这套方案之所以能精准应对当前AI训练与推理的复杂挑战,与其创始人吴文昊横跨HPC、云计算和AI三大领域的独特技术背景与产业经验密不可分:

从1999年清华本科毕业赴美深造,到2008年加入微软,吴文昊长期深耕于高性能计算领域。博士期间,他的研究方向集中于矩阵计算的高性能实现与并行计算MPI协议。2008年进入微软后,他负责微软HPC及Azure云的产品管理工作。2011年,作为Azure存储团队的项目经理,他主导了将Mellanox高速网络技术引入Azure云平台的项目。

2013年,吴文昊离开微软,加入企业级闪存市场先锋Fusion-io,并于2015年回国加入旷视科技,自此将职业重心完全转向AI领域,直至2020年离开。

基于对AI产业的多维度洞察,驿心科技目前重点聚焦并服务三大类客户群体:

第一类是云服务商与大模型厂商。这类客户的痛点在于自研技术门槛高、系统交付周期长及客户服务成本高昂,同时他们需要专业的存储解决方案、高效的网络互联能力、跨云数据同步与迁移支持,以及轻量化的运维管理界面。据吴文昊透露,驿心已在某国内头部互联网公司完成了严格的技术验证测试,而该大厂在全球范围内仅评估了两家供应商,除驿心外,另一家是美国知名存储公司。

第二类是AI研发类客户。涵盖智能汽车、自动驾驶、机器人等垂直行业,它们对AI算力和GPU存储能力的需求正在爆发式增长。这类企业致力于利用AI技术最快速度形成其所在行业的业务闭环,例如自动驾驶,就是通过智能汽车这一物理产品与视觉语言模型(VLA)服务相结合来实现的。这就需要驿心提供专业的AI基础设施解决方案以及VLA模型与数据处理能力,来协助它们构建垂直行业的端到端解决方案。目前,驿心正深化与比亚迪电子的合作,共同为AI研发类客户提供软硬件一体化的联合解决方案。

吴文昊也将这部分客户形象地称为“AI工厂”。他认为:“从第一性原理思考,DeepSeek的成功正表明中国具备成为全球‘AI工厂’的完整生态。无论GPU产自何处,若要构建高效的AI生产能力,最终的软硬件集成与优化供应链必将汇聚于中国。”

第三类是寻求智能化转型的传统行业客户。包括半导体、高端制造、金融、能源等领域,它们需要的是安全、稳定、可弹性扩展的企业级存储解决方案。与纯粹的AI研发企业相比,这类企业的AI应用需求增长迅速,正积极向AI领域拓展,处于渐进式迭代过程中。一旦其AI业务形成成熟闭环,它们有望进化成为新的AI研发驱动型企业。为此,驿心通过与主流OEM厂商合作,提供了针对不同细分行业的存算一体机集成方案。

展望未来

DeepSeek通过开源与工程化实践,在通往AGI的道路上迈出了坚实一步。同时,它也揭示了中美两国在AGI软硬件协同发展上的不同路径:美国的AGI基础设施发展更倾向于平台化与生态化,而中国的AGI实践,如DeepSeek,则更强调通过算法创新驱动的软硬件深度协同优化,来降低底层成本、提升整体效率。

驿心科技的发展路径与此有异曲同工之妙——在海外市场,其与HammerSpace等伙伴联合提供的方案更偏向于标准化与水平解耦;而在国内市场,驿心则提供了更加垂直整合、深度优化的一体化解决方案。吴文昊认为,正如DeepSeek从模型层面向下进行软硬一体优化的方法论所展现的强大竞争力,整个AI基础设施领域的软硬件协同优化与垂直整合,同样存在着广阔的市场机遇与创新空间。

那么,驿心科技和DeepSeek的具体实践有何异同呢?

吴文昊的总结颇为精辟:“需求是创新之源。对于大语言模型(LLM)这样的超级单一应用,其数据访问与使用模式趋于简化和统一,这反而更容易针对这些固定模式进行极致的深度优化。”他指出,“在LLM时代,从存储、网络到GPU的数据传输带宽与效率才是关键瓶颈。因此,我们的AI基础设施能力聚焦于优化数据存储与供给管道,直接服务于模型效能提升。”

具体而言,在存储架构层面,针对大模型训练和推理的数据密集型特点,通过Tier-0架构直接整合GPU服务器内部的本地存储空间。遵循“如无必要,勿增实体”的设计哲学,这种直接整合不仅有效应对了成本、机房空间和能耗等核心约束,还极大提升了数据访问的IO性能与有效带宽。

在模型优化层面,针对DeepSeek这类主流开源模型,驿心结合算力调度、网络优化、分布式KV缓存(KV Cache)等技术,旨在提高大型LLM集群的整体吞吐量和推理效率。同时,通过高可靠的Tier-0/Tier-1分级存储方案保障模型与训练数据的持久性与可用性,并支持模型的持续预训练、微调与推理加速。

目前,驿心科技的最新一轮融资已接近完成。展望未来,公司计划在多模态AI和边缘侧(端侧)AI基础设施方面寻求更多技术突破。吴文昊分析指出:“未来的AI基础设施,特别是面向多模态的AI存储系统,将迎来巨大增长,因为图像、视频等多模态数据的数据量相比纯文本语言模型要大数十甚至上百倍。”此外,“端侧AI的成熟也需要经过两到三个技术周期,才能达到如今语言模型的成熟度。因此,未来在边缘侧,数据的实时生成、合成、存储与高效利用也存在许多待解决的技术挑战,这其中同样蕴藏着新的创业机遇。”

总而言之,中国AI行业整体向AGI迈进,不仅需要算法研究人员持续不断的创新,也需要更多像驿心科技这样拥有深厚技术积累的基础设施创业团队加入。只有产学研用各方紧密协作,才能真正定义并塑造下一代AI基础设施的发展蓝图,这无疑是整个行业赢得未来的关键所在。

来源:https://www.leiphone.com/category/ai/eHchepW6lZ1t3fHG.html
免责声明: 游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

最新APP

宝宝过生日
宝宝过生日
应用辅助 04-07
台球世界
台球世界
体育竞技 04-07
解绳子
解绳子
休闲益智 04-07
骑兵冲突
骑兵冲突
棋牌策略 04-07
三国真龙传
三国真龙传
角色扮演 04-07

热门推荐

问界M9保值率80.4%夺冠 2026年4月纯电车型保值榜
业界动态
问界M9保值率80.4%夺冠 2026年4月纯电车型保值榜

近日,中国汽车流通协会联合精真估发布了《2026年4月纯电动车型一年车龄保值率排行榜》。这份数据对于正在选购新能源车的消费者具有重要参考价值,能帮助大家更清晰地了解当前热门电动车的残值表现。 该榜单统计的是车龄满一年的纯电动车型。位居榜首的是问界M9,其一年保值率高达80 4%。这一夺冠成绩含金量十

热心网友
05.16
追觅Aurora Lux系列手机发布 29款奢华设计全解析
业界动态
追觅Aurora Lux系列手机发布 29款奢华设计全解析

科技行业近期迎来一场备受瞩目的创新盛宴。以智能清洁机器人闻名的追觅科技(Dreame),在旧金山隆重举办了“Dreame Next 2026”未来愿景发布会。活动不仅前瞻性地展示了涵盖智能手机、智能穿戴乃至概念电动车的全系列产品,更邀请到苹果联合创始人史蒂夫·沃兹尼亚克亲临助阵。这场为期四天的盛会,

热心网友
05.16
SpaceX最快下周披露招股书 6月初启动全球路演计划
AI
SpaceX最快下周披露招股书 6月初启动全球路演计划

SpaceX最快下周披露招股书,6月初启动全球路演,估值或达1 75万亿美元,募资规模有望创纪录。公司以垂直整合与成本控制为核心优势,布局商业航天、AI基础设施与卫星互联网,其“太空数据中心”构想融合太空太阳能与AI算力,开辟新赛道。此次IPO或引发科技板块资金结构性变动,标志资本正加速拥抱太空与AI融。

热心网友
05.16
NVIDIA扩展机器人微服务库加速人形机器人发展
AI
NVIDIA扩展机器人微服务库加速人形机器人发展

NVIDIA在SIGGRAPH上宣布扩展其微服务库,以加速人形机器人开发。其核心是将生成式AI深度集成至OpenUSD语言体系,推出相关模型与NIM微服务,从而提升数字孪生与机器人工作流效率。公司还开放了机器人技术栈,并联合合作伙伴推动OpenUSD的工业应用,为开发者提供从仿真到部署的端到端平台支持。

热心网友
05.16
OKX交易所安全性如何?资金风险与监管深度解析
web3.0
OKX交易所安全性如何?资金风险与监管深度解析

OKX作为全球领先的数字资产交易平台,其风险主要来源于市场波动、技术安全与合规环境。平台通过多重安全机制、资产储备证明和严格的合规流程来管理风险。用户需理解加密货币的高波动性本质,并采取自主保管资产、启用安全功能等策略,以在参与Web3生态时更好地保护自身权益。

热心网友
05.16