首页 游戏 软件 资讯 排行榜 专题
首页
AI
逼AI当山顶洞人!Claude防话痨插件爆火,网友:受够了AI废话

逼AI当山顶洞人!Claude防话痨插件爆火,网友:受够了AI废话

热心网友
93
转载
2026-04-07


免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

新智元报道

编辑:元宇

【新智元导读】一个让AI像原始人一样说话的插件,在HN上一夜爆火,冲破2w星。它的核心只是一条简单粗暴的prompt:删掉冠词、客套和一切废话,号称能省下75%的输出token。它能火,说明开发者已经受够AI话痨了。

最近,一个叫「caveman」(穴居人)的Claude Code插件,在Hacker News炸了。

先看一张图。


从这条GitHub star增长曲线来看,「JuliusBrussee/caveman」在最初很长一段时间里几乎只是缓慢爬升,随后陡然上扬:

短短半天左右,star数从几十一路冲到500,目前已冲破2w!


「穴居人」省Token技能爆红!

caveman一夜爆火背后,其实是一次典型的社区情绪共振。

它意味着「AI Yap(废话连篇)」,这个看上去很小、却让无数人早已破防的痛点,再次被人精准地捅破了。

很快就有网友把caveman称作「2026年最厉害的提示词技巧」,称它能够砍掉浪费在「我很乐意帮你」这种礼貌和铺垫上的token。


这个插件干的事其实很简单:让AI agent像洞穴人一样说话。


删掉「the」「please」「thank you」……删掉一切不影响技术含义、却不断吞噬token的「人类客套」。


https://github.com/JuliusBrussee/caveman

项目出自开发者Julius Brussee之手,GitHub仓库名为「JuliusBrussee/caveman」。

Julius在README里抛出的核心问题也非常直接:为什么少量token能说清楚的事,要用那么多token去说?


这是一款同时适配「Claude Code」和「Codex」的技能/插件。

它的核心思路是让智能体像「原始人」一样开口,在不牺牲技术准确性的前提下,把输出压缩到极致,并声称可将token消耗降低约75%。


问题也随之而来:删掉冠词和礼貌用语,真的就能为用户省掉四分之三的钱吗?

扒开SKILL.md

网友傻眼,就这?

caveman到底怎么「省」的?

打开它的核心文件SKILL.md,内容确实不长。


https://raw.githubusercontent.com/JuliusBrussee/caveman/main/skills/caveman/SKILL.md

文件frontmatter直接把它定义成「Ultra-compressed communication mode」(超压缩通信模式)。

并写明:

通过像洞穴人一样说话,在保持技术准确性的前提下,目标是把token用量压到更低。

当用户说出「caveman mode」「talk like caveman」「use caveman」「less tokens」「be brief」,或调用「/caveman」时启用。

当用户明确要求更高token效率时,也可自动触发。

它节省「token」的规则也非常简单粗暴:别用冠词,别说废话,别客气;技术术语和代码块保留,其他能砍就砍。

删除以下内容:冠词、语气填充词、客套话、犹豫性表达。

允许使用短句、碎片句。

优先使用更短的同义词,比如说「大」而不是「庞大」,说「修」而不是「实施一个解决方案」。

技术术语必须保持精确。

代码块不改。

报错信息必须原样引用。

推荐句式:[问题][动作][原因]。[下一步]。

比如,不要这样写:「当然!我很乐意帮你。你遇到的问题,很可能是由……引起的……」

而是要这样写:「Bug在认证中间件。Token过期判断用了<,没用<=。改这里:」

它支持三档强度级别:lite、full(默认)、ultra。

lite:去掉填充词和犹豫表达。保留完整句子和正常书面感。专业、简洁;

full:进一步压缩表达,可省略部分虚词,允许碎片句,使用短词替代。典型caveman风格;

ultra:大量缩写,如DB、auth、config、req、res、fn、impl;尽量去掉连接词;用箭头表达因果,如「X→Y」;能用一个词说明,就不用两个词。

举个例子:

lite:「连接池会复用已经打开的数据库连接,而不是每次请求都新建一个,从而避免重复握手开销。」

full:「连接池复用已打开的DB连接。不是每个请求都新建。省掉握手开销。」

ultra:「连接池=复用DB连接。跳过握手→高并发更快。」

当然,遇到安全警告、不可逆操作确认、多步骤流程、或用户明显已经困惑时,清晰表达仍然优先。这也是SKILL.md里明确写出的例外逻辑。

没有模型架构改动,没有推理机制层面的压缩,caveman的本质就是一条精心编写的system prompt,约束的是AI的输出风格。

更关键的一点:作者Julius Brussee本人在HN讨论帖里主动澄清了,这个skill不针对hidden reasoning tokens和thinking tokens。


模型在后台「想」的过程并不会因为caveman自动变短,它主要压缩的是最后说出来的那部分。

Anthropic最新文档也提到,skills的名称和描述本身会占用上下文预算。

换句话说,加载caveman这个skill本身就要消耗token。

所以端到端的真实成本节省,未必等于README里那个醒目的「75%」。

因此,caveman很可能显著压缩了可见输出长度,但这不应被直接理解为同等比例的总成本下降。

README里的75%,到底靠不靠谱?

从仓库公开内容看,作者确实提供了benchmark脚本,也在README里列出了若干任务的token对比,区间从22%到87%,平均65%。

但截至目前,公开仓库里能直接看到的是测试脚本和示例表格;外界仍难以仅凭仓库当前内容完整复核每一项结果的复现实验链条。


作者在HN帖子里表示:这只是初步测试,不是严格的基准测试。

不过,「简洁表达是否会伤害AI性能」这个问题,学术界确实有人研究过。


https://arxiv.org/pdf/2401.05618

2024年的论文《The Benefits of a Concise Chain of Thought on Problem-Solving in Large Language Models》显示:

当研究者要求模型使用更简洁的推理链时,GPT-3.5和GPT-4的平均回答长度下降了48.70%,而整体解题能力几乎没有明显下降;但在数学题上,GPT-3.5的表现平均下降了27.69%。

2026年的论文《Brevity Constraints Reverse Performance Hierarchies in Language Models》则更进一步指出:

在部分基准上,对大模型加入简洁约束,准确率可提升26个百分点,甚至可能改变不同规模模型之间原本的表现排序。


https://arxiv.org/pdf/2604.00025

以上两篇论文,为「简洁未必伤性能」提供了研究背景。

但必须说清楚:它们研究的是brevity作为通用提示策略的效果,不是对caveman这个GitHub仓库的专项评测。

README引用这些研究,最多只能说明它的思路并非毫无理论背景,不能直接当作对项目自身效果的严格验证。

Claude Code的插件生态

开始起来了

caveman能火,还有一个背景原因:

Anthropic已经为Claude Code提供了相对完整的skill与plugin机制。


https://code.claude.com/docs/en/skills

根据Anthropic最新文档,开发者只需创建一个SKILL.md文件,Claude就能把它识别为skill;其中description用来决定何时自动加载,name则会变成可直接触发的斜杠命令。


最新文档还明确写了plugin级skill的路径结构是 /skills/ /SKILL.md

caveman仓库中,确实能看到.claude-pluginplugins/cavemanskills/caveman等目录,说明它不是一个停留在「几句提示词」层面的玩具,而是按照Claude Code的skill/plugin机制包装出来的扩展。


这也意味着,开发者确实可以通过一个SKILL.md,在不改模型底层的前提下,改变Claude Code在特定任务中的调用方式和输出风格。

某种意义上,这已经有点像早期VS Code扩展生态:

先有一批看起来轻量、甚至带点玩笑感的扩展冒出来,随后才逐渐长成更严肃、更细分的工作流工具。

开发者苦AI废话久矣

回到那个最初的问题:caveman到底有没有用?

如果把它当成一个严格意义上的「省钱工具」,那就需要更谨慎。

它压缩的只是可见输出文本,并不触及hidden reasoning tokens,而后者往往才是Claude Code成本的大头。

再加上skill本身也会占用上下文,端到端算下来,真实节省大概率到不了75%。

真正想优化token成本,关键也不在这里。模型分层调用、上下文窗口管理、prompt工程、缓存策略,这些才是真正的主战场。

但caveman真正值得关注的地方,不在于它是不是开出了一剂完美药方,而在于它本身就是一个信号。

当一个开发者把「让AI少说废话」这件事做成插件,放到GitHub上,被上千人认真讨论,在HN上爆火,事情的重点就已经变了。

它说明,AI工具的冗长,不再只是一个可以忍受的小毛病,而是严重到用户开始自己动手修正的程度。

实际上,开发者们在情绪上早就已经破防了:去各大社区看一眼,满屏皆是对AI 废话的哀叹抱怨:

我只需要两行正则代码,它非要给我写5个自然段的正则历史散文;

求求你别再对我说「Certainly! Here is the……」了,直接给我报错或者给我代码不行吗?

在Hacker News上,这种哀叹和抱怨更是与使用成本挂钩:

我简直是在花15刀/100万Token的价钱,来阅读AI对我的道歉和寒暄。

只因为要改一个标点,它竟然把整个800行的文件重新输出了一遍,看着API余额肉眼可见地往下掉,我都快破产了。

当大家宁愿让AI像「山顶洞人」一样说话,也不愿意继续为冗余输出多付token成本时,真正应当反思的也许是那些主流AI大厂。

为什么直到今天,他们还没有把「克制」做成一种基础能力。

不要别总盯着算力生意,而是要认真想想,用户到底为什么越来越受不了这些没必要的输出。

参考资料:

https://github.com/JuliusBrussee/caveman

https://code.claude.com/docs/en/skills

https://news.ycombinator.com/item?id=47647455

来源:https://www.163.com/dy/article/KPRLEU920511ABV6.html
免责声明: 游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

相关攻略

腾讯发布微信“龙虾”插件 ClawBot 官方使用教程:打通聊天界面与 OpenClaw 操作,QClaw、WorkBuddy、Lighthouse 同步开放连接
iphone
腾讯发布微信“龙虾”插件 ClawBot 官方使用教程:打通聊天界面与 OpenClaw 操作,QClaw、WorkBuddy、Lighthouse 同步开放连接

腾讯发布微信“龙虾”插件 ClawBot 官方使用教程:打通聊天界面与 OpenClaw 操作,QClaw、WorkBuddy、Lighthouse 同步开放连接 刚刚,腾讯正式放出了微信的「ClawBot」插件,支持将你的OpenClaw接入微信生态。需要提醒的是,该功能目前仍处于逐步放量阶段,部

热心网友
04.22
从“摸黑探索”到“撞开大门”,OpenClaw引爆的产业技术路线演变
科技数码
从“摸黑探索”到“撞开大门”,OpenClaw引爆的产业技术路线演变

从“动口”到“动手”:OpenClaw如何将AI推入“执行时代”? 文|洞见新研社 3月的最后一周,OpenClaw的GitHub社区上演了一出反转剧。往日里忙着报错的开发者们这次成了观众,主角换成了来自蚂蚁、天融信、360等机构的安全研究员,他们密集披露了数十个涉及远程接管、信息泄露的高风险漏洞。

热心网友
04.22
Cursor 3来了!一句话让所有Agent一起干活
AI
Cursor 3来了!一句话让所有Agent一起干活

Cursor 3发布:一个为“Agent编写一切代码”的世界而生的工具 智东西作者|毕伟豪编辑|漠影 智东西4月4日消息,就在昨天凌晨,编程工具Cursor迎来了其第三代版本——Cursor 3的正式发布。官方将其定位为“为一个所有代码都由Agent编写的世界而生”的工具,这句宣言,无疑为整个开发者

热心网友
04.22
龙虾之父用升级霸气回应封杀:已经剔除了Claude Code
AI
龙虾之父用升级霸气回应封杀:已经剔除了Claude Code

智东西 作者|毕伟豪 编辑|漠影 说来也巧,就在几天前被Claude正式“封杀”之后,OpenClaw没有沉寂,反而在昨天放出了4 5版本的重磅更新。这一波操作,直接把讨论热度拉满了。新版本不仅将Claude CLI从新用户的默认后端选项中移除,还重构了备受关注的梦境系统以强化记忆,更关键的是,内置

热心网友
04.14
逼AI当山顶洞人!Claude防话痨插件爆火,网友:受够了AI废话
AI
逼AI当山顶洞人!Claude防话痨插件爆火,网友:受够了AI废话

新智元报道编辑:元宇【新智元导读】一个让AI像原始人一样说话的插件,在HN上一夜爆火,冲破2w星。它的核心只是一条简单粗暴的prompt:删掉冠词、客套和一切废话,号称能省下75%的输出token。

热心网友
04.07

最新APP

宝宝过生日
宝宝过生日
应用辅助 04-07
台球世界
台球世界
体育竞技 04-07
解绳子
解绳子
休闲益智 04-07
骑兵冲突
骑兵冲突
棋牌策略 04-07
三国真龙传
三国真龙传
角色扮演 04-07

热门推荐

MongoDB 3.6旧版本如何平滑迁移GridFS数据_使用mongodump与mongorestore
数据库
MongoDB 3.6旧版本如何平滑迁移GridFS数据_使用mongodump与mongorestore

MongoDB 3 6旧版本如何平滑迁移GridFS数据 在MongoDB 3 6版本中,使用mongodump进行数据备份时,默认会忽略GridFS存储所使用的fs files和fs chunks集合,因为它们被系统视为内部命名空间。为确保GridFS文件数据的完整迁移,必须显式指定导出这两个集合

热心网友
04.29
Redis如何批量删除特定前缀的Key_使用Lua脚本避免阻塞主线程
数据库
Redis如何批量删除特定前缀的Key_使用Lua脚本避免阻塞主线程

生产环境禁用 KEYS+DEL,因其会阻塞 Redis 主线程;应使用带游标和分批的 SCAN+DEL Lua 脚本或 Ja va 中通过 RedisConnection 执行 SCAN 迭代删除,避免连接泄漏。 直接使用 KEYS 配合 DEL 来批量删除特定前缀的 Key,听起来很直接,对吧?但

热心网友
04.29
Redis为什么会出现内存泄漏的假象_排查Lua脚本中未设置过期的临时变量
数据库
Redis为什么会出现内存泄漏的假象_排查Lua脚本中未设置过期的临时变量

Redis为什么会出现内存泄漏的假象?排查Lua脚本中未设置过期的临时变量 Redis内存持续上涨可能源于Lua脚本中未设置过期时间的临时键,如set、hset、zadd写入后遗漏expire,导致“孤儿键”累积;需用redis-cli --scan结合object freq和ttl定位,并按业务语

热心网友
04.29
如何用SQL实现多级分组的排名统计_窗口函数扩展
数据库
如何用SQL实现多级分组的排名统计_窗口函数扩展

多级分组排名应选rank()或dense_rank()而非row_number():rank()跳过重复名次,dense_rank()连续编号;必须配合PARTITION BY和ORDER BY,且WHERE筛选需用子查询避免破坏分组。 rank() 和 dense_rank() 在多级分组中行为差

热心网友
04.29
Redis如何实现基于发布订阅的配置热更新_发布配置变更通知触发服务重载
数据库
Redis如何实现基于发布订阅的配置热更新_发布配置变更通知触发服务重载

Redis如何实现基于发布订阅的配置热更新 Redis Pub Sub 能否可靠用于配置热更新? 直接拿来用?恐怕不行。Redis 的 PUBLISH SUBSCRIBE 本质上是一种“即发即弃”的模型:消息不持久、没有确认机制、订阅者离线期间的消息会彻底丢失。想象一下,你的服务因为重启或者网络短暂

热心网友
04.29