57.9k Star,这个开源插件能减少65%的token消耗,还不会降低质量

熊猫办公
57.9k Star,这个开源插件能减少65%的token消耗,还不会降低质量

自从AI编程真的可以落地之后,程序员的日常都变成了这样:

“帮我看看这段代码为啥报错。”
然后 AI 开始表演:
“Sure! I’d be happy to help you with that. The issue you’re experiencing is most likely caused by your authentication middleware not properly validating the token expiry. Let me take a look and suggest a fix…”
一大堆字过去了,还没说到重点。
57.9k Star,这个开源插件能减少65%的token消耗,还不会降低质量
就像这张老图里面的感觉一样。
这就是现状,Token 烧得飞快,有效信息密度却低得可怜。
AI是个工具,我们不是跟它谈恋爱,不需要听它说那么多废话。
你付的是按 Token 计费的 API 账单,但买到的却是一大堆“好的”、“我很高兴…..”、“当然”等等这种无效沟通,浪费钱,也浪费时间去看。
所以问题来了,能不能让 AI 把嘴闭上,只吐干货?
能。而且已经有人把这事儿干成了,还在 GitHub 上拿了57.9k Star。
57.9k Star,这个开源插件能减少65%的token消耗,还不会降低质量

项目简介
Caveman 是一个开源的skill/插件,通过系统约束强制AI模型剥离所有的礼貌用语、冗余背景和解释性废话,让 AI 像原始人一样直奔主题,仅输出最核心的代码逻辑、数据结论,可降低65%的 token 消耗。
核心原理:
caveman 不会动 AI 的推理过程,它只压缩输出内容。
它在 AI 的 system prompt 里塞了一套规则,告诉 AI:
  • 删掉客套话
  • 保留技术术语、代码块、文件路径、错误信息,一个字不许动
  • 把复杂的长尾词换成简单的词
  • 允许用碎片化短句,不追求语法完整
实测
我用 Agent 实测了,效果确实离谱。

57.9k Star,这个开源插件能减少65%的token消耗,还不会降低质量
6 组示例平均下来,Token 输出减少了63.5%。
如果开 ultra 模式,单条中文回答的压缩率能接近 80%。
来看一段。
🗣️ 常规(109 tokens)
“你的 React 组件每次状态更新都会重新渲染,即使 props 没有变化。这是因为你每次渲染都创建了一个新的对象引用。当你把内联对象作为 prop 传递时,React 的浅比较会认为它是一个不同的对象,从而触发重新渲染。我建议你使用 useMemo 来缓存这个对象。”
🪨 Caveman(37 tokens)
“新对象引用每次渲染。内联对象 prop = 新引用 = 重渲染。用 useMemo 包裹。”
意思完全一样,修复方案一样,Token 只用了三分之一。

57.9k Star,这个开源插件能减少65%的token消耗,还不会降低质量
10 个任务跑下来,平均节省约 76% 的输出 Token。
最夸张的是架构讲解和组件实现类问题,能压掉 87%。
功能特点
不只是省 Token。
阅读速度变快了
以前 AI 回一大段,我得扫两三眼才能看到结论,现在它直接丢结论,一眼看完,不绕弯。
上下文更耐用了
上下文长度都是有限制的,这样的话就不用频繁去压缩了。
技术准确性没掉
这是我最在意的一点,caveman 的规则明确保护了代码块、技术术语、错误信息、文件路径,该精确的地方一字不差,该省略的地方一刀不软。
话多不代表更聪明,有时候少即是多。
项目链接

https://github.com/JuliusBrussee/caveman

扫码加入AI交流群获得更多技术支持和交流(请注明自己的职业)
57.9k Star,这个开源插件能减少65%的token消耗,还不会降低质量
关注「开源AI项目落地」公众号与AI时代更靠近一点

© 版权声明

相关文章