OpenAI与微软合作后为何选择亚马逊AWS云服务
今天凌晨,云计算行业迎来一则重磅消息。亚马逊云科技(AWS)与OpenAI共同宣布深化战略合作,将OpenAI最新模型(包括备受瞩目的GPT-5.5)正式集成至Amazon Bedrock平台。同时,OpenAI的Codex代码智能体也同步上线,AWS还推出了深度整合OpenAI模型能力的Amazon Bedrock托管智能体服务。目前,这三项新功能均已开启限量预览。值得注意的是,双方重点披露了技术整合细节,而对于外界关注的合作具体金额则未予透露。

▲AWS官宣与OpenAI合作(图源:X)
此次合作达成后,AWS的企业客户很快就能通过其熟悉的Amazon Bedrock平台,直接调用OpenAI的先进大模型与Codex编程助手。根据官方信息,相关服务预计将在未来数周内全面开放。在此之前,开发者在AWS生态中仅能使用OpenAI于去年8月开源的部分模型。
本次合作中,Amazon Bedrock托管智能体成为一大亮点。AWS表示,该工具能显著提升AI智能体对上下文语境的理解能力,并支持跨会话的历史对话记忆。该产品已在今日凌晨的“What’s Next with AWS”发布会上正式发布。此举清晰地表明,AWS正全力进军企业级AI应用市场。
对于此次联手,AWS首席执行官马特・加曼(Matt Garman)在发布会上明确表示:“这是众多客户期待已久的成果。”而OpenAI联合创始人兼CEO萨姆・奥尔特曼(Sam Altman)虽因法律事务未能亲临,也通过预录视频表达了支持,凸显双方对此次战略合作的高度重视。
一个值得关注的细节是:AWS选择官宣的时机,恰好在微软宣布解除与OpenAI独家合作关系的次日。这个时间点的选择耐人寻味。然而,从合作推进的速度来看,这显然并非临时决策,而是长期酝酿后的自然结果。
回顾双方的合作历程可见端倪:早在去年11月,OpenAI就与AWS签署了一份为期7年、价值380亿美元的算力采购协议。仅仅三个月后,市场再度传出亚马逊计划向OpenAI投资500亿美元,而OpenAI则承诺追加100亿美元用于采购AWS的算力及自研芯片。由此可见,双方的战略协同早已层层深化,此次在应用层的整合,不过是长期深度绑定后的顺势而为。
一、全渠道适配开发需求,支持API及多类客户端插件调用
简而言之,Amazon Bedrock的定位,是AWS为企业客户构建的一个统一的大模型服务接入平台。
过去,AWS平台无法直接调用OpenAI的最先进模型,这给部分企业客户带来了不便。如今技术通道打通,企业无需重构系统或切换平台,只需通过日常使用的AWS标准化服务,即可便捷接入GPT等系列模型,显著降低了AI技术的应用门槛。
更重要的是,在Amazon Bedrock平台上,企业不仅能调用OpenAI模型,还能一站式选用Anthropic、Meta、Mistral、Cohere乃至亚马逊自研的多种模型。这种“模型市场”模式,为企业提供了充分的选择自由与灵活性。
在成本管理方面,此次合作也带来了便利。企业调用OpenAI模型产生的费用,将直接计入其现有的AWS云服务合约。这意味着企业的AI支出可与整体云资源成本统一管理,简化了财务流程。
另一个关键突破在于Codex的接入。此前,AWS平台并未原生支持直接调用Codex。企业若想使用,只能通过公网连接OpenAI官方接口等间接方式。这不仅需要单独注册账号、独立结算,更无法复用AWS既有的身份权限管理、数据加密等成熟的安全治理体系,存在一定的数据安全风险。
而此次Codex正式登陆Amazon Bedrock,彻底改变了这一状况。AWS为开发者提供了通过Bedrock API直接调用Codex的通道,并同步支持Codex命令行工具、桌面客户端以及Visual Studio Code编辑器插件等多种使用方式。企业的开发团队现在可以直接在常态化运维的AWS云环境中调用该智能体,以往繁琐的流程与潜在的数据风险也随之化解。
二、智能体平台夯实算力基础,托管服务简化企业级部署
当前,企业若想自主研发和部署AI智能体,面临诸多挑战。整个流程需要自行整合多种底层组件:从搭建企业级的基础设施、安全防护与运维体系,到配置跨会话的持久化记忆、标准化流程引擎、精细化的权限与身份管理体系,再到为不同业务任务匹配相应的计算资源。这套体系的构建不仅耗时费力,企业的初始投入与后续运维成本也相当高昂。
正是洞察到这一痛点,AWS此次推出了两款相辅相成的AI智能体产品:一个是支持各类模型与框架的开放式智能体核心平台Amazon Bedrock托管智能体,负责在上层提供“深度优化”。两者可无缝协同,配合使用。
具体而言,智能体核心平台的核心使命是为上层的托管智能体提供稳定、高效的底层算力环境。它负责支撑基础的计算资源与架构,确保上层应用拥有坚实的运行基础。
而Amazon Bedrock托管智能体则截然不同,它完全基于OpenAI的技术框架构建,并针对OpenAI的模型(尤其是其前沿系列模型)进行了深度定制与优化。其设计目标明确:助力企业安全、可靠地构建与运行大规模AI应用。
这款托管智能体最大的优势在于“开箱即用”的部署体验。它依托AWS成熟的云原生技术栈,为企业提供了一个标准化的运行环境。企业无需自行搭建服务器、配置复杂环境或处理后续运维,即可快速获得一个可直接投入生产的OpenAI智能体应用,极大地加速了AI项目的落地周期。
结语:整合OpenAI强化模型与智能体生态,深度集成与体验优化成未来关键
总体而言,AWS与OpenAI的此次深度合作,战略意图明确:通过Amazon Bedrock这一统一平台,将OpenAI最先进的模型能力平滑、高效地交付给企业用户,同时大幅简化调用流程、安全管控与成本核算。这项合作将有力帮助AWS补强其在前沿大模型、专业代码智能体以及企业级托管智能体服务方面的能力矩阵。
随着Bedrock平台接入的模型生态日益多元化,一个随之而来的挑战是:AWS将如何进一步优化不同模型之间的协同调用体验,确保企业用户获得流畅、一致的使用感受?另一方面,OpenAI是否会在更多区域节点与更复杂的业务场景中,深化与AWS在技术架构与算力层面的融合?这些问题的解答,将直接影响此次合作最终能释放的商业价值与技术红利,值得业界持续关注。
相关攻略
今天凌晨,云计算行业迎来一则重磅消息。亚马逊云科技(AWS)与OpenAI共同宣布深化战略合作,将OpenAI最新模型(包括备受瞩目的GPT-5 5)正式集成至Amazon Bedrock平台。同时,OpenAI的Codex代码智能体也同步上线,AWS还推出了深度整合OpenAI模型能力的Amazo
Uber联手AWS:用Gra viton芯片驱动核心调度,Trainium为AI模型提速 消息来了:网约车巨头Uber和亚马逊云科技AWS刚刚官宣了一项深度合作。简单说,Uber要把其最核心的调度系统——“行程服务区域”,迁移到AWS基于自研Arm架构的Gra viton服务器实例上。不仅如此,他们
美国网约车巨头Uber牵手亚马逊AWS,用自研芯片“重塑”出行大脑 科技界最近有个挺有意思的合作。网约车和配送领域的巨头Uber,宣布与亚马逊云科技(AWS)达成深度合作。这次合作的核心,是Uber准备用亚马逊的Gra viton实例来驱动其最核心的“行程服务区域”系统,并开始试点使用Trainiu
作者 | 黄小艺邮箱 | huangxiaoyi@pingwest com过去几年,AI每一次进化,都在向前推进一步:从Chatbot的提问框,到Agent的云电脑,再到OpenClaw这样能同
智通财经APP获悉,花旗将亚马逊(AMZN US)的目标价从265美元上调至285美元,原因是其上调了亚马逊云服务部门AWS的营收预期,理由是Anthropic和OpenAI等人工智能业务的强劲增长
热门专题
热门推荐
潮汐守望者梅丽珊卓的出装策略,核心在于极致放大她的爆发伤害与控制能力,同时构建必要的生存保障。以下这套经过版本与实战验证的装备组合,将帮助她主宰峡谷战场,成为团队不可或缺的法术核心。 核心装备 卢登的回声通常是无可争议的首件神话装备。它提供的法术强度与技能急速完美优化了梅丽珊卓的技能循环,而其被动“
4月29日,阶跃星辰正式发布新一代图像编辑生成模型Step Image Edit 2。这款AI图像模型主打“小身材、大能力、快响应”,参数量仅3 5B,却在轻量级图像编辑评测基准KRIS-Bench中斩获综合排名第一。它全面支持文生图、中英文渲染、局部编辑、视觉推理、主体一致性及风格迁移等多种AI图
2026年的AI圈,时钟仿佛被拨快了。技术迭代的浪潮一波未平,一波又起。 尤其是进入四月以来,整个行业像是踩下了油门。Meta携Muse Spark高调回归,ChatGPT Images 2 0的生成效果在社交媒体上持续刷屏,而GPT-5 5的发布,再次将技术天花板向上推升了一个量级。视线转回国内,
从DeepMind到阿里、腾讯,各路顶尖玩家正涌入“世界模型”这个新战场。但大家争夺的,远不止是算力与资源,更核心的较量在于:究竟什么样的架构,才能真正构建起对物理世界的理解? 过去一年半,世界模型已然成为AI领域竞争最密集的焦点。参与者名单几乎涵盖了所有前沿方向:全球科技巨头、视频生成公司、机器人
柴犬币自低点反弹约30%,正尝试复苏。当前面临0 0000076美元附近的200日移动均线关键阻力,若能突破可能上涨约21%,但该位置存在解套抛压。价格需放量突破0 0000064美元以确认短期上涨趋势,下一目标0 0000072美元,下方关键支撑位于0 000006美元附近。





