我开发了一个比特桶命令行工具——它让我确信,对于人工智能代理而言,命令行界面优于模型上下文协议服务器

发布日期:2026-04-17 09:22:04   浏览量 :2
发布日期:2026-04-17 09:22:04  
2

2026西湖龙井茶官网DTC发售:茶农直供,政府溯源防伪到农户家 

GitHub 有 gh。GitLab 有 glab。Bitbucket Cloud 有……??

它叫做 bb

显而易见,且实现得当:

bb pr list                 # 拉取请求列表,最近的排在前面
bb pr view 42              # 详情、审查者、状态——无需浏览器
bb pr diff 42              # 原始差异,可管道传输至 less / delta / 任何工具
bb pr merge 42             # 合并、压缩或快进
bb pipeline wait           # 阻塞直到当前构建完成

刚开始时,我的计划是:先开发命令行界面,然后将其封装在一个模型上下文协议服务器中,以便 Claude Code 和 Cursor 可以调用它。模型上下文协议是目前赋予智能体工具的流行方式。每家开发者工具公司都在推出自己的模型上下文协议实现。

后来我先尝试了更懒的版本——直接让智能体通过外壳调用 bb——然后就再也没有回头。

以下是我认为命令行界面实际上是人工智能智能体更好接口的原因,而模型上下文协议正在解决大多数工具并不存在的问题。

1. 工具模式在每一轮对话中都会消耗上下文。 模型上下文协议服务器将其工具作为 JSON 模式进行通告,这些模式会在每条消息中被注入到模型的上下文中。十二个工具,十二个模式,每轮对话都是如此。命令行界面通过 --help 一次性通告自身,智能体便会记住其结构。你只需支付一次令牌费用,而不是永远支付。

2. 外壳是通用的工具协议。 每个智能体框架——Claude Code、Cursor、Aider、Codex 以及下一个出现的框架——都已经知道如何运行 bash。bb pr view 42 在你安装它的那一天起,就在每个工具中生效,无需任何集成代码。模型上下文协议需要一个支持模型上下文协议的客户端。这对于本质上始终是一个子进程的东西来说,是一种非平凡的耦合。

3. 组合是免费的。 这是最重要的一点:

bb pr list --output-style ai | grep OPEN | head -5
bb pipeline latest --output-style ai | jq -r .status
bb pr diff 42 | wc -l

智能体可以进行管道传输、过滤、计数和链式操作——所有这些都使用它已经熟悉的基本原语。模型上下文协议工具是一个封闭的函数调用。你无法对模型上下文协议的响应使用 grep。你无法将其管道传输至 jq。每一次切片和切分都必须是一个新工具或一个新参数。

4. 你可以调试它。 当智能体做出奇怪的行为时,我运行它执行的确切命令,并查看它看到的确切输出。使用模型上下文协议时,智能体看到的是服务器构建的结构化负载,而我则在阅读日志以试图重建发生了什么。

5. 分发问题已解决。 执行 npm install -g 就完成了。没有配置文件,没有服务器进程,没有“重启编辑器以便工具加载”的说法。智能体在外壳继承工具的那一刻也就继承了该工具。

命令行界面对智能体唯一欠下的东西

现有的命令行界面在针对智能体时只有一个不足之处,而且是可以修复的:默认输出。制表符和 ANSI 颜色对模型不友好。因此,每个 bb 命令除了默认模式和 --json 模式外,还有第三种模式:

免责声明:本文内容来自互联网,该文观点不代表本站观点。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请到页面底部单击反馈,一经查实,本站将立刻删除。

关于我们
热门推荐
合作伙伴
免责声明:本站部分资讯来源于网络,如有侵权请及时联系客服,我们将尽快处理
支持 反馈 订阅 数据
回到顶部