首页 游戏 软件 资讯 排行榜 专题
首页
AI
对话优刻得季昕华 大模型竞争并非算力决定一切

对话优刻得季昕华 大模型竞争并非算力决定一切

热心网友
17
转载
2026-05-15

“美国的算力限制,确实会给国内大模型发展带来制约。毕竟,没有核心算力,模型训练就无从谈起。”谈及算力的关键作用,优刻得董事长兼CEO季昕华的观点直指核心。

自今年2月国内大模型热潮兴起,算力便迅速成为业界焦点,同时也被视为一道亟待攻克的技术关卡。然而,从另一个视角看,算力需求的爆发式增长,也为国内的云计算厂商带来了前所未有的市场机遇。

对此,季昕华也表示认同。他认为,算力限制既是挑战也是契机。一方面,若想在一两年内解决“卡脖子”问题,必须加速国产芯片的研发进程,这绝非易事;另一方面,企业对算力的空前重视,反而会倒逼并推动整个国产芯片产业链的快速发展。

作为一家中立的云计算服务商,优刻得其实早已感知到,大模型竞争的背后,是整个算力市场格局即将发生的深刻变革。

“去年11月第一次接触Stable Diffusion时,其生成效果就让人非常惊艳,这促使我们开始密切关注大模型领域。”季昕华回顾了公司关注大模型的起点。他同时透露,当时国内企业尚未普遍关注大模型,其潜在价值也不甚明朗,因此并未立即决定开展相关业务。

优刻得真正开始应用大模型并服务大模型企业,要从今年2月算起——这也正是大模型在国内形成广泛影响力的时间节点。

据了解,优刻得的布局是双线并行的:一方面,基于大模型研发了供内部使用的四款AI产品,包括知识问答平台“识问”、UCoder代码助手、AI绘画助手以及大模型安全管理平台;另一方面,依托其低成本、高附加值的自建数据中心,构建了AIGC算力底座,为大模型的训练、推理及数据处理等环节,灵活提供多种GPU算力资源。

此后,优刻得进一步推出了私有化大模型一体机。该设备内置其自主研发的UCloudStack全栈私有云平台,提供从虚拟化、存储、网络到MaaS模型服务的私有化解决方案,可结合行业垂直大模型一体化交付给企业客户,实现大模型应用的一键部署。

谈及优刻得在大模型时代的定位,季昕华再次强调了“中立”原则。他解释道,中立意味着优刻得与客户之间不存在业务竞争,并且致力于帮助大模型公司寻找客户。季昕华曾公开形象地比喻,在大模型时代,优刻得愿意扮演“红娘”的角色。

从季昕华的阐述中,也可以理解优刻得内部研发和应用大模型产品的深层原因:一是让公司员工率先了解并学会使用大模型,在此基础上,才能更深刻地洞察大模型落地过程中的真实痛点与应用场景,从而为客户提供更精准有效的服务。

展望大模型的未来,季昕华表示,尽管前方存在诸多不确定性,但互联网与人工智能行业对算力的需求是确定无疑的。目前,国内无论在单卡训练能力还是卡间互联能力上仍存在局限。因此,优刻得未来的工作重点,将持续聚焦于打造坚实的大模型算力底座。

竞争大模型不是有卡就能躺赢,工程能力对模型训练至关重要

问: 一种普遍观点认为,最终能参与大模型竞争的云厂商屈指可数,像高速网络这样的能力并非每家都有。您认为真正的竞争壁垒是什么?

季昕华: 高速网络这类技术,其实并非主要门槛。包括优刻得在内的大多数云厂商都有能力构建。目前主流的高性能网络方案主要有两种:一种是RoCE网络,优刻得在2019年就已具备这项能力;另一种是英伟达推荐的IB网络方案,这套方案相对更简单,主要涉及部署和维护。所以,对于云厂商或大型公司而言,技术本身并不是最核心的障碍。

问: 有说法称,很多大模型企业已经开始“囤卡”了?

季昕华: 是的,尤其是一些头部大厂,正在积极储备A800、H800等计算卡。这背后有两个原因:一是其自身的AI业务需要大量算力支撑,加之资金充裕,自然会提前进行大规模采购;二是国内大模型的热潮自今年2月兴起,各厂商出于战略重视,也加快了储备算力的步伐。

问: 那么,是否意味着拥有的卡越多就越有优势,甚至能“躺赢”?其他云厂商又该如何与这些大厂竞争?

季昕华: “躺赢”可谈不上。事实上,现在很多AI大模型公司也在使用我们的算力,这种情况很普遍。

原因有几方面:第一,单一来源的算力往往无法满足全部需求;第二,大模型公司之所以愿意与优刻得合作,是考虑到一些大厂同时拥有算力、算法、数据和场景,与其合作难免存在未来业务竞争的担忧。而优刻得作为中立、安全的云厂商,与大模型企业没有竞争关系。同时,优刻得具备从数据中心、底层架构到算力平台、模型库的全栈技术积累和一站式系统工程服务能力。

做好算力服务,做好大模型“红娘”这个角色

问: 优刻得是从何时开始关注大模型的?

季昕华: 最早接触是在去年国庆期间,首先是看到了Stable Diffusion,其效果令人惊艳,于是开始关注大模型。因此,我们对ChatGPT的跟进也比较早。

问: 所以去年国庆后就决定要投入这个领域了?

季昕华: 去年国庆后,优刻得确实将AIGC定为年度重点方向之一,并在11月发布了AI绘画平台镜像。但真正下定决心全面投入,是在今年2月与国内头部大模型公司深入交流之后。我们察觉到国内算力市场即将迎来爆发性增长,因此在3月底正式决定大力拓展这项业务。

问: 在众多大模型企业中,优刻得有多少潜在客户?

季昕华: 我们统计过,国内专注于大模型的公司约有130家,其中通用大模型78家,垂直大模型52家,而且这个数字还在增加。目前,已有30多家成为了我们的客户。

问: 具体以什么形式提供服务?

季昕华: 主要是两类服务:一是直接提供算力资源;二是提供机房托管服务,因为有些公司会选择自行采购设备,然后放置在我们的数据中心。

问: 机房服务如何理解?是因为客户自身缺乏运营能力吗?

季昕华: 任何企业都需要机房,但大模型所需的机房有两个突出特点:一是电力消耗巨大,二是单机功耗高。例如一台H100服务器的功耗可能超过10千瓦,普通机房难以满足。优刻得在乌兰察布的数据中心就特别适合这类高功耗需求。此外,不少公司面临“有服务器却用不起来”的困境,优刻得可以帮助他们快速搭建算力平台并提供后续运维支持。

问: 除了提供算力,优刻得前段时间还发布了“识问”平台?

季昕华: 优刻得内部开发了四个平台:知识问答平台“识问”、UCoder代码助手、AI绘画助手以及大模型安全管理平台。实际上,在“识问”之前,我们最先推出的是大模型应用管理系统,这是我们的第一款产品,初衷是希望让更多人能便捷地用上大模型。

其次,为了解决商业安全问题,我们设置了一系列限制,包括对用户提问和上传文件进行记录与过滤,防止企业机密信息泄露。

第三,系统会自动记录用户的所有提问以及内外部沟通的返回结果,这些数据沉淀下来,便于企业后续用于持续的模型训练和优化。

问: 开发这四款产品的初衷是什么?未来会对外开放吗?

季昕华: 首要目的是让公司全体员工都能了解并使用大模型。只有亲身实践,才能深入理解大模型公司的真实痛点与落地场景,从而更好地服务客户。目前这些产品主要供内部使用,但如果客户有需求,我们也可以展开深度合作。

问: 这些平台是基于哪个模型进行训练的呢?

季昕华: 我们采用了一种“国外磨枪、国内战斗”的策略。初期会使用GPT-4进行训练和模型验证,待流程跑通后,再逐步迁移到国内大模型或开源大模型上进行优化。

问: 未来有哪些应用场景是您比较看好的?

季昕华: 如果按照对输出内容准确性要求的高低来划分,我们梳理了十个潜力场景:

第一是翻译和配音,大模型在此类任务上的能力已相当出色,完全可以替代部分人工;第二是游戏中的NPC(非玩家角色);第三是社交应用;第四是电商内容生成;第五是游戏设计;第六是智能客服;第七是公文与编程辅助;第八是企业内部知识管理;第九是教育与保险场景;最后是辅助律师和医生工作。

问: 这十个场景会同步推进,还是逐步展开?

季昕华: 优刻得自身不研发大模型,我们的角色是“连接器”或“红娘”。例如,将游戏行业的客户对接给MiniMax,将电商、教育行业的客户对接给智谱华章等合作伙伴。

国内大模型水平赶超GPT-4很难,创业公司机会更多

问: 您认为国内大模型公司可以分为几类?哪些是优刻得的重点客户?

季昕华: 我们大致分为五类。第一类是互联网与科技巨头,如阿里、百度、字节、华&为、京东等。第二类是科学家创业团队,像智谱华章。第三类是原有的AI公司,如“AI四小龙”、达观、云知声、第四范式等。第四类是新兴的创业公司,例如MiniMax。第五类是由其他行业上市公司转型或领军人物创业而来,如昆仑万维、360,以及王小川、李开复等创办的企业。

第一类巨头并非优刻得的目标客户,后面几类才是我们重点服务的对象。

问: 这是否意味着大厂具备自建能力,而其他企业则没有?

季昕华: 大模型涉及人工智能的复杂体系,不仅是网络,还包括存储、机房等一系列基础设施。创业公司理论上也可以自建,但周期会非常长。在大模型这场竞赛中,速度是关键,谁能更快地部署和应用,谁就更可能占据先机。等自建完成,市场窗口期可能已经过去。

问: 对于大厂而言,发展大模型会经历哪几个关键阶段?

季昕华: 首先是模型上线,其次是上线后的效果验证与迭代。目前了解到,已有MiniMax、智谱、百度、阿里、科大讯飞等公司的模型上线。

问: 如何评判哪家的效果更好?是否主要看算力消耗的多少?

季昕华: 不能简单地划等号。训练阶段消耗的算力多,未必能训练出更优的模型。但如果推理环节消耗的算力多,通常意味着用户体量大、调用频繁,由此收集到的反馈数据也更丰富,这反而更有利于迭代和优化模型。

问: 无论是训练还是推理,做大模型首先还是离不开算力吧?

季昕华: 没错。第一要有“卡”,这是硬件基础,没有算力必然落后;第二要有强大的工程能力,否则有卡也用不起来。目前各家在工程能力上的利用率大约在40%-50%之间。解决了这两个问题,接下来还要应对安全挑战,同时流量支撑能力也至关重要。

问: 国内大模型目前处于什么水平?有人认为今年年底就能追上GPT-4。

季昕华: 目前国内还没有出现整体能力超越GPT-3.5的模型,当然在某个特定任务上超越相对容易。但要全面超越GPT-4则非常困难,关键原因在于,GPT-3.5之前的技术论文是公开的,但GPT-4的核心技术细节并未公开,大家尚不清楚其实现路径。

问: 国内大厂也没有机会赶超吗?

季昕华: 从当前效果看,一些大厂的表现可能还不如头部创业公司。因为一些有信念、有远见的创业团队很早就开始布局通用大模型了,而很多大厂是在ChatGPT引爆市场后才开始跟进。

问: 按理说,大厂有更深厚的技术积累,不是更有机会吗?

季昕华: AI领域分支众多。过去几年,业界普遍认为垂直大模型更有机会,对通用大模型的潜力判断相对保守。因此,真正持续投入通用大模型研发的,反而是一些有信念的创业团队和科研机构,比如智谱华章、MiniMax以及中科院的相关团队。

对于大厂而言,更多是在看到国外成功案例后进行战略跟进,起初并未将其提升到公司核心战略的高度,因此在通用大模型的技术积累上,并不一定具备绝对优势。

问: 算力问题迟早会解决,届时优刻得在大模型领域的优势将体现在哪里?

季昕华: 可以总结为三点:第一,坚持中立性,与客户无业务竞争,建立信任基础;第二,具备从数据中心、网络到存储的完整AIGC解决方案构建能力,能帮助中小型公司快速搭建平台,提升大模型使用效率;第三,能够更好地帮助大模型公司拓展下游客户与落地场景。

从今年2月至今,国内大模型热潮已持续近半年。各类通用与垂直模型层出不穷,参数规模竞相攀升,市场竞争日趋白热化,与之相伴的算力竞争也愈发激烈。然而,随着国内对算力自主可控的重视程度空前提高,所谓“卡脖子”的困境,终将在产业合力下被逐步打破。

技术的演进需要思想的碰撞。接下来,一群人工智能领域的开拓者将齐聚新加坡,在第七届GAIR全球人工智能与机器人大会上,带来前沿的洞察与思考。作为国内首个出海举办的AI顶级论坛,这也标志着中国人工智能影响力的进一步扩展。

算力、数据、基础设施,共同构成了大模型时代的“超级基建”。在此次论坛上,季昕华将与多位业界专家一同,围绕《大模型时代的超级基建》这一主题展开深度探讨。届时,包括新加坡国立大学校长青年教授尤洋、汇智智能联合创始人刘黄骁烈、Zilliz创始人星爵、云启资本合伙人陈昱等重磅嘉宾,将共同分享他们对超级基建形态的思考,以及如何筑牢大模型发展基座的实践路径。

来源:https://www.leiphone.com/category/ai/MUr2Mye2UFPfdXxM.html
免责声明: 游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

相关攻略

实在塔斯大模型:AI大模型技术解析与应用指南
业界动态
实在塔斯大模型:AI大模型技术解析与应用指南

在人工智能浪潮中,大语言模型已成为推动产业变革的关键引擎。其中,实在智能推出的实在塔斯(TARS)大模型,是一款面向垂直行业领域、可自主训练的类ChatGPT大语言模型。它并非通用模型的简单复刻,而是基于实在智能在自然语言处理领域长期的技术积淀与丰富的落地经验,为行业深度定制而生。下面,我们来详细拆

热心网友
05.15
大模型工作流原理与应用场景全解析
业界动态
大模型工作流原理与应用场景全解析

在探索如何高效利用GPT、BERT等大型语言模型的强大能力时,“工作流”无疑是实现任务自动化与智能化的核心策略。它是一套将复杂问题标准化、流程化的系统性方法,旨在显著提升任务执行的效率与输出结果的可靠性。那么,一套优秀的大模型工作流具体包含哪些关键组成部分?我们又该如何设计与实施呢? 工作流的核心要

热心网友
05.15
大模型调用成本太高?教你节省90%费用的实用方法
AI
大模型调用成本太高?教你节省90%费用的实用方法

大模型缓存机制通过KVCache和前缀匹配实现重复内容仅计费一次,显著降低成本。主流方案差异明显:OpenAI自动缓存折扣约五折但时效短;Claude需手动标记,折扣可低至一折;DeepSeek采用硬盘缓存,持久且费用极低。工程中应将稳定内容前置以提升命中率,高频重复场景下合理利用可大幅节省费用。

热心网友
05.15
大模型一体机:定义、功能与应用场景全解析
业界动态
大模型一体机:定义、功能与应用场景全解析

谈及当前企业智能化转型的主流方案,“大模型一体机”无疑是备受关注的核心选项。本质上,它是一套完整的“交钥匙”解决方案,将AI服务器硬件、预训练好的大模型以及配套的应用软件深度融合,打包交付,旨在为企业提供安全、高效、可私有化部署的大模型服务。 一、核心构成:三位一体的“智能体” 这套系统的架构与核心

热心网友
05.15
大模型私有化部署含义与实施指南
业界动态
大模型私有化部署含义与实施指南

企业在引入大型人工智能模型时,面临一个关键抉择:是采用便捷的云端服务,还是选择将模型私有化部署在本地?后者,即将大模型部署于企业自有的服务器或专用硬件上,正日益成为对数据安全、响应速度和成本控制有严格要求的机构的核心选择方案。 一、私有化部署的背景与趋势 在人工智能技术迅猛发展的浪潮中,以实在智能为

热心网友
05.15

最新APP

宝宝过生日
宝宝过生日
应用辅助 04-07
台球世界
台球世界
体育竞技 04-07
解绳子
解绳子
休闲益智 04-07
骑兵冲突
骑兵冲突
棋牌策略 04-07
三国真龙传
三国真龙传
角色扮演 04-07

热门推荐

银河麒麟系统SSH公钥登录配置与安全远程连接指南
系统平台
银河麒麟系统SSH公钥登录配置与安全远程连接指南

在麒麟操作系统上配置SSH公钥登录,不仅能免去每次输入密码的繁琐,更能显著增强远程连接的安全性。整个过程并不复杂,核心步骤围绕密钥生成、公钥部署和服务端配置展开。本文将详细介绍几种主流方法,涵盖从自动化部署到手动配置,助你轻松完成麒麟系统SSH密钥登录设置。 一、使用ssh-keygen与ssh-c

热心网友
05.15
银河麒麟系统登录循环故障解决方法与桌面修复指南
系统平台
银河麒麟系统登录循环故障解决方法与桌面修复指南

登录循环闪退应先删 Xauthority和 ICEauthority文件、修复 tmp权限为1777、重置ukui mate dconf配置、清理磁盘空间、重装lightdm并重新配置。 在银河麒麟操作系统中输入密码后,屏幕一闪又回到登录界面,这种“登录循环”问题确实令人困扰。这通常并非硬件故障,而

热心网友
05.15
GUSD稳定币详解:项目背景、核心用途与投资风险全解析
web3.0
GUSD稳定币详解:项目背景、核心用途与投资风险全解析

GUSD是一种与美元1:1锚定的合规稳定币,由Gemini交易所发行并受纽约州金融服务部监管。其核心价值在于为加密世界提供透明、受监管的美元等价物,主要应用于交易、支付和价值存储。投资者需关注其中心化托管风险、监管政策变化及智能合约潜在漏洞,理解其作为传统金融与加密市场桥梁的定位与局限。

热心网友
05.15
Win11如何设置默认音频输出设备与调整音量
系统平台
Win11如何设置默认音频输出设备与调整音量

在Windows 11系统中,确保系统音频稳定输出到指定设备(如已连接的耳机或已配对的蓝牙音箱),核心在于正确配置默认音频输出设备。您可以通过任务栏快速设置、系统设置应用、控制面板声音对话框、音量混合器下拉菜单或Win+Ctrl+V快捷键这五种主流方案,实现即时切换或永久性配置,彻底解决声音输出错乱

热心网友
05.15
宏胜集团高管变动与业务外包调整深度解析
AI
宏胜集团高管变动与业务外包调整深度解析

宏胜集团近期发生重要人事与业务调整。总裁办主任叶雅琼、销售总经理吴汀燕、法务部部长周卓盈及生产管理科科长吴潘潘等多位高管已离职,该消息已获接近集团人士证实。与此同时,集团启动了部分非生产业务的外包运作,显示出其正在优化内部结构与运营模式。这一系列变动可能意味着公司正处于战略调整期,旨在聚焦核心业务并

热心网友
05.15