首页 游戏 软件 资讯 排行榜 专题
首页
AI
香港中文大学推出AI游戏开发框架 轻松将创意转化为可玩作品

香港中文大学推出AI游戏开发框架 轻松将创意转化为可玩作品

热心网友
44
转载
2026-05-15

这项由香港中文大学多媒体实验室完成的研究,于2026年4月20日以预印本形式发布在arXiv平台,论文编号为arXiv:2604.18394,分类为计算机软件工程领域。感兴趣的读者可以通过该编号直接检索完整论文。

香港中文大学出手:用AI帮你把游戏创意变成真正能玩的游戏,这个框架解决了LLM最头疼的老问题

游戏开发,一直是创意与技术之间的一道高墙。

很多人都有过这样的念头:要是能把脑子里的游戏创意直接变成一款能玩的游戏,那该多好。你可能想做一个漫威英雄主题的动作游戏,让自己最喜欢的角色各有绝技;或者想做一款让学生边玩边学的教育游戏;又或者想用当下最火的网络梗做一个塔防游戏,发到网上博取流量。

问题在于,游戏开发从来不是一件简单的事。它不只是“写几行代码”,而是需要同时搞定游戏引擎的运行逻辑、角色与场景之间的数据传递、实时物理计算、音效资源的加载与触发,还要保证几十个文件之间互相配合、一个都不能出错。这道门槛,拦住了无数有想法却不懂编程的普通人。

近年来,大型语言模型的兴起让人们看到了希望。这些AI已经能解决相当复杂的编程问题,能帮你写代码、改Bug、理解技术文档。然而,当你真的让它“帮我做一个完整的游戏”时,它几乎总是翻车——生成的游戏要么卡死不动,要么逻辑混乱,要么画面一片空白,根本没法玩。

香港中文大学的研究团队通过系统观察,把这些翻车现场归纳为三类典型问题。第一类叫做“逻辑失控”,AI生成的代码在游戏运行过程中会丢失对全局状态的追踪,比如角色血量、关卡进度等关键数据在某个时间点突然消失,游戏因此陷入僵死或无限循环。第二类叫做“引擎盲区”,通用AI对游戏引擎的专用接口一知半解,经常自己从头手写物理碰撞、场景切换这些功能,而不是正确调用引擎本身提供的成熟系统,结果往往一团糟。第三类也是最常见的,叫做“跨文件失联”——一个完整的游戏项目通常包含几十个文件,AI生成的各个文件单独看起来没问题,但拼在一起就会发现:这边引用的资源名字和那边定义的不一样,场景之间的跳转连接断掉了,配置文件里缺了必填字段……整个项目因此无法运行。

正是为了解决这三类问题,香港中文大学的团队设计了一套名为**OpenGame**的开源框架,并配套训练了一个专用的游戏代码大模型**GameCoder-27B**,同时还建立了一套专门评测AI做游戏能力的基准测试**OpenGame-Bench**。这三件事合在一起,构成了这篇论文的核心贡献。

一、AI为什么做游戏总是翻车?先搞清楚问题根源

要理解OpenGame做了什么,得先把上面那三类翻车问题讲得更具体一些。

以“跨文件失联”为例。假设你用AI生成了一个角色的动画资源文件,里面把主角的跑步动画命名为“hero_run”。但是在另一个文件里,负责控制角色移动的代码却在找“player_run”这个名字的动画——两个名字对不上,游戏一启动就报错,主角直接消失。这种错误不是某一行代码写错了,而是两个本该“对话”的文件之间产生了鸡同鸭讲的误会,而AI在生成大量文件时,很容易在这种细节上失去追踪。

再说“引擎盲区”。现代游戏引擎提供了大量现成的功能模块,比如物理碰撞检测、精灵动画播放、场景管理等。正确的做法是直接调用这些模块。但通用AI因为没有针对性训练,往往不知道该怎么用这些专有接口,于是选择自己手写一套物理系统——这不仅代码量大、错误多,还会和引擎的其他部分产生冲突。

基于这些观察,研究团队的核心思路是:不能靠通用AI硬撑,必须给它配备两样东西。一是一套稳定的“脚手架”,让AI不用每次都从零开始搭建游戏结构;二是一本“错误手册”,记录所有已知的高频错误和经过验证的修复方法,让AI能够系统性地自我纠错,而不是每次出错都像无头苍蝇一样乱撞。这两样东西,就是OpenGame框架里被称为“游戏技能”的核心机制,具体分为**模板技能**和**调试技能**。

二、用“工程图纸”让AI站在巨人肩膀上:模板技能的设计逻辑

模板技能的核心思路,可以用盖房子来理解。

一个没有任何建筑经验的人,如果让他从零开始盖一栋房子,他可能连从哪里下手都不知道,更不用说保证结构安全。但如果给他一套标准化的施工图纸,告诉他梁要怎么放、墙要怎么砌、水电怎么走,他只需要在这个基础上根据具体需求做调整,成功率就会大大提高。

模板技能做的正是这件事。它从一个被称为“元模板”的最基础框架开始。这个元模板就像一套最简单的游戏毛坯房图纸,里面规定了一个可运行游戏所必须具备的基本结构:项目文件的布局方式、游戏启动时的初始化流程、资源加载的规范、场景循环的骨架,以及各种配置接口。元模板故意设计得非常通用,不预设任何游戏类型、物理规则或玩法机制。

随着AI处理的游戏任务越来越多,它会从每一次成功的项目中提取那些“稳定好用、普遍适用、可以复用”的代码片段,把它们抽象成更专门化的模板,并持续积累成一个模板库。经过反复实践,这个模板库自然而然地收敛出五大类专门化模板,分别对应五种最常见的游戏物理与交互模式:带重力的横版视角、俯视角自由移动、网格离散逻辑、路径与波次防御,以及以界面交互为主的玩法。

研究团队特别强调:这五个类别不是事先人为规定的,而是从实际任务数据中自然涌现出来的。这说明这种分类方式是有真实规律支撑的,而非主观臆断。

当一个新的游戏需求进来时,AI首先判断它属于哪种类型,然后从模板库里取出对应的模板作为起点,在模板预留的“扩展接口”上填入游戏特有的内容,而不是凭空构建整个项目。这样一来,跨文件结构的一致性从一开始就有了保障,大量常见错误在生成阶段就被预防掉了。

三、用“错误档案馆”让AI越错越聪明:调试技能的运作方式

即便有了模板,生成出来的代码仍然可能出现各种问题。调试技能要处理的,正是这些运行时才会暴露的错误。

传统做法是给AI一份固定的错误检查清单,比如“检查资源名是否一致”“检查场景跳转是否正确”等等。这种清单的问题在于,它是静态的——只能捕获写清单时已知的错误,对新出现的问题毫无办法,而且随着游戏复杂度提升,错误种类会越来越多,固定清单根本跟不上。

调试技能采用的是一种动态积累的方式,团队把它称为“活体调试协议”。每当游戏在构建或运行时出现错误,AI会把这个错误的“特征码”、背后的根本原因,以及经过验证有效的修复方法,打包成一条记录存入协议。下次遇到同样或类似的错误,AI可以直接查协议找到对应的修复方案,而不用重新摸索。当某类错误反复出现,AI还会把它归纳成一条通用规则,以后在代码生成阶段就预先避开这个坑。

更进一步,调试协议不只在出错之后才发挥作用。协议里还积累了一批“预执行检查项”——那些历史上最高频的失误类别,比如资源键名不匹配、配置字段缺失、场景初始化顺序错误等。在代码正式编译运行之前,AI会先用这些检查项过一遍自己生成的代码,把能发现的问题提前消灭,大幅降低了运行失败的概率。

用一个不那么严谨但直观的比方:如果说模板技能是在给AI一套建筑图纸,那么调试技能就是在给AI一本维修手册,这本手册会随着每次修缮经验自动更新,越用越厚,越用越管用。

四、六步走完一个游戏:OpenGame的完整工作流程

了解了模板技能和调试技能之后,再来看OpenGame的整体工作流程就会清晰很多。这套流程分为六个阶段,由一个结构化的“待办清单工具”贯穿始终,确保AI在每个阶段都清楚自己在做什么、做完没有。

流程从**分类与搭建脚手架**开始。当用户输入一段游戏想法描述时,AI首先调用一个专门的分类工具,但它判断游戏类型的依据不是“这是什么风格”或“这叫什么类型”,而是“物理规则是什么”。具体来说,它会问:角色会因为没有地面支撑而下落吗?这是横版还是俯视角?移动是连续的还是格子式的?敌人是沿固定路线走还是自由移动的?这种“物理优先”的分类逻辑,比靠模糊的风格描述分类要精确得多。确定类型之后,AI就把对应类型的模板文件夹整体复制到工作目录,形成一个结构完整的项目骨架。

接着是**生成游戏设计文档**。AI会根据用户的描述和选定的模板类型,生成一份技术性的游戏设计文档。这份文档非常具体,包含所有需要用到的资源列表、游戏里各种数值参数、场景结构与切换逻辑、关卡布局设计,以及每个文件需要实现哪些功能的详细说明。这份文档充当了AI后续所有工作的唯一真相来源,任何实现细节都不能和它矛盾。

然后是**多模态资源合成**。AI读取GDD里的资源清单,调用图像生成和音频生成工具,创建游戏所需的所有视觉与听觉素材。背景图、角色动画帧、道具图标、界面元素,以及背景音乐和各种音效,都在这个阶段生成。对于需要瓦片地图的游戏,还有专门的工具把ASCII字符描述的关卡布局转换成游戏引擎能直接使用的JSON格式地图文件。生成完资源之后,AI还会读取一个记录所有资源文件名的索引文件,把这些精确的名字记录在案,在后续写代码时直接引用,彻底避免“资源名字对不上”这种低级错误。

进入**代码实现**阶段时,AI先把GDD里的数值参数写入一个集中的配置文件,这样所有代码都从这一个文件读取数值,不会出现同一个参数在不同地方写了不同数字的情况。然后,AI采用一种“三层渐进阅读策略”来避免上下文溢出问题——简单说,就是不一次性把所有文档都塞进去,而是按顺序依次读入:先读模板系统的API摘要,再读当前要修改的那个具体文件,最后读这个文件的实现指南。最后读的内容在AI的“注意力”中最新鲜,对接下来的代码生成最有指导意义。

代码生成本身采用一种叫做“模板方法模式”的策略。简单来说,AI不是从一张白纸开始写代码,而是复制模板文件,然后只在模板预留的特定钩子函数里填入游戏特有的逻辑。好比一份标准合同,AI只需要填写方括号里的空白处,合同的整体框架和法律条款已经由模板保证是正确的。这种方式极大地降低了AI引入生命周期管理错误的风险。

最后是**验证与自我纠错**。AI先读取调试协议文件,对照协议里的检查项做一遍静态自查。然后实际执行构建命令和测试命令,通过一个无头浏览器来运行游戏,检查有没有报错、画面是否正常渲染。如果发现问题,AI会解析错误信息,定位到出错的文件,修复之后再次运行,直到游戏能够成功启动并正常运行为止。每遇到一个新类型的错误,就把它记录进调试协议,供未来参考。

五、专门为游戏开发训练的大模型:GameCoder-27B是怎么炼成的

OpenGame框架的底层引擎,是研究团队专门训练的一个代码大模型GameCoder-27B,它建立在Qwen3.5-27B这个开源基础模型之上,通过三个阶段的训练逐步专业化。

第一个阶段是**持续预训练**。研究团队从GitHub上搜集了大量使用Phaser框架的开源游戏项目,加上Phaser的官方文档和社区教程,构建了一个大规模的游戏开发专用语料库。用这批数据继续训练模型,让它对游戏引擎的API用法、游戏循环的结构、物理系统的工作方式、状态管理的模式,有了远超通用模型的熟悉程度。这就像让一个程序员专门在游戏公司实习了一段时间,见识了大量真实的游戏代码。

第二个阶段是**监督微调**。只会看代码还不够,还得会按照人的指令来写代码。这个阶段,团队用GPT-codex 5.1生成了大量复杂的游戏开发指令,然后用MiniMax 2.5生成对应的高质量实现代码,构建成“问题-答案”对的形式来训练模型。这个过程让模型学会了如何把抽象的游戏设计意图转化成具体的、结构清晰的代码。

第三个阶段是**基于执行结果的强化学习**。这是整个训练流程里最特别的部分。不是让模型直接生成整个游戏,而是让模型生成单个功能模块的代码,比如碰撞检测逻辑、状态机转换逻辑等。这些代码会被真实执行,并对照预定义的单元测试。执行成功率和测试通过率就是奖励信号——代码跑通了、测试过了,就给高分;跑不通或测试失败,就给低分。通过反复的试错与优化,模型形成了对“什么样的代码能真正跑起来”的深层理解,而不只是表面上“看起来像那么回事”的代码。

值得注意的是,在整个训练的最后阶段,GameCoder-27B作为OpenGame框架里的一个组件,其表现远超它作为独立模型直接生成游戏时的表现。这说明框架本身提供的结构化支持,比底层模型的能力提升更为关键。

六、如何公平地评测“AI做的游戏好不好玩”:OpenGame-Bench的设计

评测AI写代码好不好,传统方法是跑单元测试——给函数一个输入,看输出对不对。但游戏根本不能这么评测:一段“在语法上完全正确、能成功编译”的游戏代码,打开之后可能只是一片黑色背景,什么都动不了。静态代码测试对于游戏来说是完全失效的。

研究团队为此设计了OpenGame-Bench,一个完全基于动态执行的评测系统,对150个游戏生成任务进行测评。

评测系统的运作方式是:把AI生成的游戏项目部署到本地HTTP服务器上,启动一个无头浏览器去访问并运行它,记录运行过程中的各种信号,最后综合评分。一个有效的测试结果需要满足三个前提条件:项目能成功构建、游戏能在浏览器中打开而不崩溃,以及自动化运行过程中能截到至少一张非空白的截图。未能满足这些前提的,会被单独统计为“流水线错误”,不计入正常评分。为了减少随机性的影响,每个任务会用不同的随机种子运行三次,取平均分。

评分维度共三个。**构建健康度**评测项目能否正确编译、加载、渲染,会捕获破损依赖、Ja vaScript运行时异常、静默网络错误等各类问题,不简单地用“成功/失败”二分法,而是给出一个0到100的细粒度分数。**视觉可用性**结合了像素级指标和视觉语言模型的主观评判,奖励那些渲染清晰、有动画、看起来真的能交互的游戏。**意图对齐度**是三个维度里最复杂的:先从用户的原始描述中自动提取一份结构化的需求清单,然后让视觉语言模型逐条核查游戏的实际表现是否满足每条需求,最后汇总成一个加权通过率。

这套评测体系的设计理念,和人类玩游戏的体验判断高度一致:不只看代码能不能跑,还看画面有没有内容,更看游戏做的是不是你让它做的那件事。

七、实验结果:OpenGame在150个任务上打出了什么成绩

研究团队把OpenGame与一大批竞品系统进行了全面对比。竞品包括多个直接用于生成游戏代码的前沿大模型,还有两个主流的代码智能体框架。

实验结果中,配备Claude Sonnet 4.6的OpenGame取得了最好成绩:构建健康度72.4分、视觉可用性67.2分、意图对齐度65.1分。相比最强的竞品——同样使用Claude Sonnet 4.6作为后端的Cursor——OpenGame在三个维度分别高出5.6、5.8和6.2分,其中意图对齐度的提升最为突出,说明OpenGame在理解并实现用户设计意图方面有明显优势,而不只是生成表面上能跑的代码。

使用自研GameCoder-27B的OpenGame也表现不俗,三项得分分别为63.9、57.0和54.1。虽然没有Claude版本强,但它超越了所有直接使用开源或闭源大模型生成游戏的系统,而且在构建健康度和视觉可用性两项上还能与qwen-code一较高下。这意味着一个专门为游戏开发训练的中等规模开源模型,配合合适的框架,完全可以媲美规模大得多的通用模型。

不过,研究团队也坦诚地指出了当前系统的局限。即便是最好的配置,也还有约34.9%的机械性需求没有被完全满足。这反映的是整个问题本身的难度,而非某一个方法的特有缺陷。

八、拆开来看:每个设计决策到底贡献了多少

除了整体性能对比,研究团队还做了细致的消融实验,分别检验框架中每个关键设计的独立贡献。

关于GameCoder-27B的训练流程,实验结果表明三个训练阶段的贡献是递进的。基础Qwen-3.5-27B已经在OpenGame框架里获得了62.8/53.8/49.8的基础分。加入持续预训练之后,构建健康度有所提升,反映了对Phaser API和多文件结构更好的熟悉程度。叠加监督微调之后,意图对齐度获得了最大单次跳升,说明高质量的合成训练数据对于理解用户设计意图确实至关重要。最后加入强化学习阶段,视觉可用性和意图对齐度进一步提升,达到完整GameCoder-27B的最终水平。

关于代码智能体的工作流程设计,钩子驱动的实现方式被证明是最关键的单一因素。去掉它、让AI从零开始写所有代码,构建健康度下降10.1分,意图对齐度下降11.6分,并且频繁出现致命的生命周期管理错误。去掉三层渐进阅读策略,意图对齐度下降8.6分,证明即便是大上下文窗口的模型,在处理多文件合成任务时也会出现“信息被淹没在中间”的问题,需要刻意控制信息的加载顺序。去掉物理优先分类逻辑,影响最小但仍然不可忽视,主要体现在一部分任务被分配到了不合适的模板类型,导致后续实现困难。

关于游戏技能的演化机制,实验结果非常清晰地展示了积累效应的价值。只用最基础的元模板加静态错误清单作为起点时,三项得分分别为60.5/54.8/51.2。把模板库扩展到五个专门化家族、同时使用活体调试协议,最终达到72.4/67.2/65.1。每一步积累都有明显的数值提升,说明经验积累确实是有效的,而且每个层面的积累都贡献了独立的价值。

关于迭代自我纠错的效率,实验测试了不同最大调试迭代次数对性能的影响。零次迭代时构建健康度只有58.4,说明一次性生成复杂多文件游戏项目本质上是脆弱的。从零次增加到三次迭代时,所有指标都快速上升,大多数跨文件矛盾和语法错误都在这个阶段被修复。继续增加到五次迭代时,提升幅度明显收窄,趋于平稳。这说明有限次数的迭代修复是游戏生成可靠性的关键成分,但也有收益递减的边界,不需要无限迭代。

九、哪类游戏做得好,哪类还有提升空间

把意图对齐度按游戏类型分解来看,OpenGame的表现有明显的规律性差异。

平台跳跃类游戏得分最高,达到76.8分。紧随其后的是俯视角射击类。这两类游戏的共同特点是物理规则明确、空间语义清晰——角色有没有碰到地面、子弹有没有打中敌人,这类问题在代码层面有非常清晰的判断标准,错误也会立刻暴露为画面异常或游戏崩溃,AI的调试机制可以有效捕获并修复。街机动作类居中,策略类和益智界面类得分最低。

策略和益智类游戏的低分有一个值得关注的深层原因:这类游戏里,“逻辑正确”与“画面显示”之间的耦合非常松散。比如一个消消乐游戏,如果消除判定的逻辑出了问题,画面可能看起来完全正常——方块还在,颜色还是对的,点击还有响应——但得分计算已经乱套了。这类“静默错误”既不会触发编译警告,也不会导致运行崩溃,调试协议里的信号捕获机制无从发力,自动调试几乎对其束手无策。研究团队明确指出,如何检测和修复这类逻辑层面的静默错误,是未来工作的重要方向。

说到底,OpenGame这项研究做的事情,是在AI与游戏开发之间搭了一条更靠谱的路。它没有试图让AI“变得更聪明”来蛮力攻克游戏生成的复杂性,而是通过给AI配备合理的结构性工具——稳定的模板库和自我更新的错误知识库——让它可以系统性地处理那些原本反复踩坑的问题。配套的GameCoder-27B证明了专门领域的专项训练是有意义的,不需要一个通用的超大模型,一个领域专精的中等模型配上好的框架,也能拿出不错的结果。OpenGame-Bench则提供了一套更贴近实际游戏体验的评测方式,把“能不能跑”、“看起来好不好”和“做没做我想要的事”分开来量化,比起简单的通过失败判断要信息丰富得多。

对普通人来说,这项研究意味着“把创意变成真正可玩的游戏”这件事正在越来越接近现实。虽然目前最好的配置也还有35%左右的需求无法完全满足,但趋势是清晰的。尤其是对那些有想法但不懂编程的人,或者想快速验证一个游戏概念的独立开发者来说,这类工具的持续进步可能会真的改变他们的工作方式。

至于策略类和益智类游戏的低分问题,背后涉及的“如何自动检测和修复逻辑层的静默错误”这个问题,在软件工程领域本身就是个难题,并不是游戏AI独有的挑战。这个方向上的突破,可能不只对游戏生成有意义,对更广泛的自动化软件开发也会有所启发。

有兴趣深入了解技术细节的读者,可以通过论文编号arXiv:2604.18394在arXiv平台检索到完整论文,代码和项目也已在GitHub上以开源方式发布。

Q&A

Q1:OpenGame生成的游戏需要用什么技术栈,普通用户电脑能跑吗?

A:OpenGame生成的是基于Phaser 3框架的网页游戏,用纯Ja vaScript或TypeScript编写,运行在浏览器里,不需要任何游戏引擎客户端。生成完成后只需要一个本地HTTP服务器就能跑起来,普通电脑完全可以运行,不需要专业的游戏开发环境。

Q2:OpenGame-Bench和传统代码测试有什么不同?

A:传统代码测试主要检查函数输入输出是否正确,属于静态检验。OpenGame-Bench是动态执行的,它会把生成的游戏真实地跑在无头浏览器里,截图分析画面内容,用视觉语言模型判断游戏是否真正可玩、是否满足设计要求,这比单纯看代码有没有语法错误要贴近实际游戏体验得多。

Q3:GameCoder-27B和直接用ChatGPT做游戏有什么区别?

A:通用大模型对Phaser等游戏引擎的专有API不够熟悉,容易自己手写物理系统或错误调用引擎接口,导致代码无法运行。GameCoder-27B经过了针对游戏引擎代码的持续预训练、指令微调和执行反馈强化学习三阶段专项训练,对游戏开发的API用法、多文件结构和游戏逻辑有更深的理解,生成的代码实际运行成功率更高。

来源:https://www.techwalker.com/2026/0428/3185400.shtml
免责声明: 游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

相关攻略

莫奈画作被误认为AI废画引热议
业界动态
莫奈画作被误认为AI废画引热议

一名网友将莫奈《睡莲》标注为“AI生成”后引发大量批评,众人指责其构图、色彩与“灵魂”缺失,直到真相揭晓。这场实验揭示了标签如何主导判断,如同“廉价红酒实验”中的认知偏差。当前网络对AI内容的过度怀疑甚至误伤人类创作者,反映出标签化思维正侵蚀艺术鉴赏与社会信任的基础。

热心网友
05.15
AI比你更理性吗 它其实存在偏见
业界动态
AI比你更理性吗 它其实存在偏见

当“AI决策”成为流行语,我们是否过于轻信其客观性?中欧国际工商学院金融学教授余方在近期演讲中揭示:AI并非绝对理性,它可能悄然“继承”并“放大”人类固有的认知偏见。本文基于余方教授演讲内容,深入探讨AI决策的潜在偏差与应对策略。 今年以来,AI技术以前所未有的深度渗透各行各业,引发了一种普遍的隐忧

热心网友
05.15
AI深度伪造诈骗致企业损失2500万美元 如何防范
业界动态
AI深度伪造诈骗致企业损失2500万美元 如何防范

深度伪造技术正严重威胁企业安全,使传统依赖声音、面孔的信任机制失效,已渗透支付审批、高管沟通等环节,造成巨额诈骗风险。企业须将合成媒体纳入威胁模型,以零信任原则审视内容,建立自动化检测与应急预案,并通过独立验证渠道分离沟通与授权,使信任成为可验证的流程而非默认。

热心网友
05.15
慕尼黑大学AI仅凭动作预测视频速度提升万倍
AI
慕尼黑大学AI仅凭动作预测视频速度提升万倍

这项由慕尼黑大学CompVis实验室、慕尼黑机器学习中心与苹果公司联合开展的研究,以预编本形式发布于2026年4月,论文编号为arXiv:2604 11737。 当前,视频AI技术面临一个核心的效率瓶颈:现有方法在预测物体运动时,总是将“视觉外观”与“运动轨迹”这两个维度的信息捆绑处理。这好比学习舞

热心网友
05.15
MWS AI与ITMO大学揭秘AI文字生成模型高效节能新方法
AI
MWS AI与ITMO大学揭秘AI文字生成模型高效节能新方法

想象一下,一台高性能电脑生成一段文字,背后究竟要经历什么?很多人可能下意识地认为,AI说话就像打字,一个字一个字地蹦出来。但有一类新兴的AI文字生成技术,走的是一条截然不同的路:它不像打字员,更像一个反复修改草稿的作者——先把整篇文章“涂黑”,然后一遍又一遍地把涂黑的部分猜出来,直到整篇文章清晰成形

热心网友
05.15

最新APP

宝宝过生日
宝宝过生日
应用辅助 04-07
台球世界
台球世界
体育竞技 04-07
解绳子
解绳子
休闲益智 04-07
骑兵冲突
骑兵冲突
棋牌策略 04-07
三国真龙传
三国真龙传
角色扮演 04-07

热门推荐

领克GT概念跑车北京车展首发 百公里加速仅2秒
科技数码
领克GT概念跑车北京车展首发 百公里加速仅2秒

领克首款GT概念跑车亮相北京车展,由中欧团队联合打造。新车采用经典GT比例与低趴宽体设计,配备液态金属蓝涂装与2+2座舱,设有高性能模式按键可激活空气动力学套件。车辆采用后驱布局与AI智能运动控制系统,百公里加速约2秒,设计融合瑞典极简美学并参考全球用户反馈。

热心网友
05.14
英伟达RTX 5070移动版GPU发布 12GB显存性能大幅提升
科技数码
英伟达RTX 5070移动版GPU发布 12GB显存性能大幅提升

英伟达推出12GB显存版RTX5070移动GPU,与8GB版同步上市。两者均基于Blackwell架构,核心规格相同,仅显存容量不同。此举旨在缓解GDDR7芯片供应压力,为OEM提供灵活配置,加速笔记本产品布局,更大显存可更好满足游戏与AI应用需求。

热心网友
05.14
微星新款雾面WOLED显示器MAG 276QRY28与276QRDY54正式发售
科技数码
微星新款雾面WOLED显示器MAG 276QRY28与276QRDY54正式发售

微星将于5月15日推出两款26 5英寸雾面WOLED显示器MAG276QRY28和276QRDY54,售价分别为2499元和6299元。均采用第四代WOLED面板,具备QHD分辨率、VESADisplayHDRTrueBlack500认证、1500尼特峰值亮度及99 5%DCI-P3色域覆盖。276QRY28刷新率为280Hz,高阶款276QRDY54支持4

热心网友
05.14
中芯国际一季度净利润13.61亿元 同比增长0.4%
科技数码
中芯国际一季度净利润13.61亿元 同比增长0.4%

中芯国际2026年第一季度营收176 17亿元,同比增长8 1%;净利润13 61亿元,同比增长0 4%。公司预计第二季度收入环比增长14%至16%,毛利率指引上调至20%至22%。这反映出公司在行业复苏中展现出财务韧性,并通过运营优化增强了短期增长势头。

热心网友
05.14
AI图像处理训练数据存在色差问题 16种算法经小改动全面提升
AI
AI图像处理训练数据存在色差问题 16种算法经小改动全面提升

手机修图、相机降噪、视频去雾……这些我们日常使用的图像处理功能,其背后都离不开人工智能(AI)技术的驱动。通常,AI模型的训练逻辑是:向模型展示大量“低质图像”与“优质图像”的配对数据,让它学习如何将前者转化为后者。然而,天津大学计算机视觉团队近期发表的一项研究(arXiv:2604 08172)揭

热心网友
05.14