终端里写代码这件事,正在被重新定义。

2025 年初,Claude Code 用一个终端窗口证明了 AI 可以像工程师一样读文件、改代码、跑测试。紧接着,各种终端编码 Agent 如雨后春笋般涌现。在这波浪潮里,一个用 Rust 写的开源项目悄然拿下了 23,000+ Star——DeepSeek TUI。

它不是 DeepSeek 官方出品,而是社区开发者 Hmbown 的作品。但它做的事情,可能比你想象的要多。

DeepSeek TUI 是什么

简单说:一个跑在终端里的 AI 编码 Agent,底层用 Rust + ratatui 构建,专门对接 DeepSeek 系列模型。

它由两个二进制文件组成:

和 Claude Code 的定位类似,它能让 AI 读写文件、执行命令、搜索网页、管理 Git,甚至调度子代理并行工作。但它的实现语言和架构选择,带来了不同的性能特征和使用体验。

核心能力

Auto 模式:模型自动选择

这是 DeepSeek TUI 最有特色的功能之一。开启 --model auto 后,系统会根据每轮对话的复杂度,自动选择 deepseek-v4-pro(强推理)或 deepseek-v4-flash(快速响应),并决定思考深度(off / high / max)。

deepseek --model auto

你不需要在"用强模型还是快模型"之间反复切换,系统替你做这个决策。背后是一个轻量级的路由调用,分析当前任务的复杂度后分配资源。

三种工作模式

DeepSeek TUI 提供三种模式,对应不同的权限级别:

模式 行为 适用场景
Plan 只读探索,不修改文件 代码审查、架构分析
Agent 交互式,每次操作需确认 日常开发
YOLO 自动批准所有操作 可信工作空间的批量任务

通过 /mode 命令随时切换,比 Claude Code 的权限模型更细粒度。

100 万 Token 上下文

DeepSeek V4 的上下文窗口达到 100 万 Token,这在终端编码工具里是天花板级别的。配合手动或自动的上下文压缩(compaction),可以处理非常大的代码库而不容易"失忆"。

系统还会实时显示 Token 消耗和缓存命中率,让你对成本有精确的感知。

工作区回滚

这是个很巧妙的设计。DeepSeek TUI 在每轮对话前后通过 side-git 做快照,但不会动你项目的 .git。如果 AI 改坏了代码,可以用 /restorerevert_turn 一键回滚到操作前的状态。

/restore        # 回滚到上一轮之前的状态
revert_turn     # 撤销当前轮次的所有修改

这种"沙箱式"的安全网,比单纯的审批机制更让人安心。

推理过程实时流式显示

对接 DeepSeek 的推理模型时,TUI 会实时流式显示模型的思考过程。你能看到 AI 是怎么分析问题、拆解步骤、排除方案的——这不只是炫技,对调试复杂问题非常有用。

LSP 诊断集成

每次编辑文件后,DeepSeek TUI 会自动调用对应语言的 LSP 服务器(rust-analyzer、pyright、typescript-language-server、gopls、clangd 等),在界面上内联显示错误和警告。

这意味着 AI 改完代码后,你能立刻看到是否有语法错误或类型问题,不用切到编辑器去验证。

MCP 协议支持

和 Claude Code 一样,DeepSeek TUI 支持 MCP(Model Context Protocol),可以连接外部工具服务器扩展能力。支持三种传输方式:stdio、SSE 和 Streamable HTTP。

# ~/.deepseek/config.toml
[[mcp_servers]]
name = "filesystem"
command = "npx"
args = ["-y", "@modelcontextprotocol/server-filesystem", "/path/to/dir"]

子代理与 RLM

DeepSeek TUI 支持通过 agent_spawn 生成子代理并行处理任务。更有趣的是 RLM(Recursive Language Model)功能——通过 rlm_query 调度多个 deepseek-v4-flash 子实例做批量分析,成本极低。

这种"主代理用 Pro 做决策,子代理用 Flash 做执行"的架构,在成本和效果之间找到了不错的平衡。

安装与上手

DeepSeek TUI 提供多种安装方式,覆盖主流平台:

npm(推荐)

npm install -g deepseek-tui

国内用户可以指定镜像源:

npm install -g deepseek-tui --registry=https://registry.npmmirror.com

Cargo

cargo install deepseek-tui-cli --locked
cargo install deepseek-tui --locked

Homebrew(macOS)

brew tap Hmbown/deepseek-tui
brew install deepseek-tui

Scoop(Windows)

scoop install deepseek-tui

Docker

docker run --rm -it -e DEEPSEEK_API_KEY -v "$PWD:/workspace" \
  ghcr.io/hmbown/deepseek-tui:latest

安装完成后,配置 API Key 并验证:

deepseek auth set --provider deepseek
deepseek doctor
deepseek --model auto

除了 DeepSeek 官方 API,还支持 NVIDIA NIM、Fireworks、Ollama 等 OpenAI 兼容端点。

与 Claude Code、Cursor 的对比

维度 DeepSeek TUI Claude Code Cursor
语言 Rust TypeScript/Node Electron/TypeScript
界面 终端 TUI 终端 CLI GUI IDE
模型 DeepSeek V4 Claude (Anthropic) 多模型可选
上下文 100 万 Token 20 万 Token 取决于模型
计费 按 Token 付费 按 Token 付费 订阅 + API
MCP 支持(三种传输) 支持 支持
子代理 支持(agent_spawn + RLM) 支持 有限
开源 MIT
会话持久化 SQLite 文件 内置

几个关键差异值得注意:

成本结构不同。DeepSeek V4 的定价本身就比 Claude 低,加上 Auto 模式会在简单任务上自动切换到更便宜的 Flash 模型,实际使用成本可以进一步压低。RLM 批量分析更是把成本打到了地板。

上下文窗口差距明显。100 万 vs 20 万,在处理大型代码库时体验差异很大。DeepSeek TUI 可以一次性加载整个项目的上下文,而 Claude Code 可能需要更频繁地依赖 compaction。

开源 vs 闭源。DeepSeek TUI 是 MIT 协议,你可以 fork、修改、自托管。Claude Code 和 Cursor 都是闭源产品。对于在意数据隐私或需要定制化的团队,这是个重要的区别。

生态成熟度不同。Claude Code 背靠 Anthropic 的工程团队和 Superpowers 等技能框架,生态更成熟。DeepSeek TUI 的 Skills 系统还在快速发展中,社区贡献的技能包数量有限。

什么时候该选 DeepSeek TUI

适合的场景:

不太适合的场景:

总结

DeepSeek TUI 是一个用 Rust 构建的开源终端编码 Agent,核心优势在于 100 万 Token 上下文、Auto 模式智能路由、工作区回滚和极低的使用成本。它不是 DeepSeek 官方产品,但凭借扎实的工程实现和活跃的社区迭代,在 4 个月内积累了 23,000+ Star。

如果你正在寻找一个 Claude Code 的替代方案,或者本身就是 DeepSeek 模型的用户,DeepSeek TUI 值得一试。

参考资料

--:--
加载中…