什么是 Void
作为开发者,我们都知道 AI 编码工具能大幅提升效率,但同时也面临两个让人纠结的困境:把代码上传到第三方服务器总觉得不踏实,被锁定在特定的 AI 提供商又限制了灵活性。这种“效率与可控不可兼得”的痛点,困扰着无数追求极致开发体验的程序员。
Void 就是为解决这些问题而诞生的。它是基于 VS Code fork 的开源 AI 代码编辑器,最大的特点就是直接连接任意 LLM,无中间商,你的消息会直接发送到 LLM Provider,不经过任何私有后端。这意味着你的代码数据完全自主可控,不会被任何第三方截获。
如果你对数据隐私更敏感,Void 还支持本地部署 Ollama,让 AI 功能完全运行在你的机器上。算力自己掌控,数据不出本地,这就是很多企业开发者选择 Void 的核心原因。
目前 Void 拥有 28.3k GitHub Stars、2.3k Forks、46 位 Contributors,2,771 次提交记录,活跃的 Discord 社区。这些数字背后是一个真正在做实事的开源项目。
- 基于 VS Code fork,零学习成本迁移
- 直接连接任意 LLM,数据不过私有后端
- Checkpoints 功能:LLM 编辑历史的版本控制
- 完全开源可审计,Apache 2.0 许可证
- ⚠️ 产品已暂停开发,部分功能可能随时间失效
Void 的核心功能
我们在设计 Void 的功能时,始终围绕一个核心问题:如何让 AI 真正成为开发者的延伸,而不是一个新的束缚?围绕这个思路,Void 打造了一套完整的能力体系。
Tab 智能补全是最基础的交互方式。开始输入代码后,按下 Tab 键就能直接应用 AI 的补全建议。Void 使用自定义 FIM(Fill-in-the-Middle)模型支持,补全速度和准确性都很扎实。
Quick Edit 快速编辑则更进一步。选中某段代码,按下 Ctrl+K 触发内联编辑模式,直接描述你想要怎么改,AI 就会输出修改后的代码块。这种“选中即改”的体验非常直观,省去了在对话和代码之间来回跳转的麻烦。
Chat 对话模式提供了三种使用方式:普通对话适合问答和讨论;Agent Mode 是全权限 AI 代理,可以搜索、创建、编辑、删除文件,甚至访问终端和 MCP 工具;Gather Mode 则是受限模式,仅读取和搜索,适合做代码调研和理解项目结构。三种模式满足不同场景需求,你可以随时切换。
特别值得一提的是,Void 的 Agent Mode 支持任意模型运行,即使模型原生不支持 tool calling(比如 R1、Gemma3、GPT 4.1),Void 也能让它完成文件操作。这意味着你可以用成本更低的开源模型来实现自动化开发,大幅降低 AI 编程的门槛。
Checkpoints 检查点是另一个亮点。它相当于为 LLM 的编辑操作提供了版本控制,你可以可视化地查看每一次 AI 修改的 diff,随时跳转到之前的版本。这个功能在做一些大胆的重构时特别有用——就算 AI 改坏了,也能轻松回滚。
v1.4.1 版本还新增了 MCP(Model Context Protocol)支持,可以连接外部工具和服务,生态扩展性进一步提升。
- 完全开源:代码可审计,透明度高
- 任意模型支持:OpenAI、Claude、Gemini、DeepSeek、Llama、Qwen、Mistral、Grok 都能用
- VS Code 零迁移成本:主题、快捷键、设置一键迁移
- Checkpoints 版本控制:AI 编辑历史可回溯
- 本地部署支持:Ollama、vLLM 完全离线运行
- ⚠️ 产品已暂停开发,无官方维护
- 部分功能可能随时间失效
- 需自备 LLM API 密钥或本地算力
- 文档和社区支持相对有限
谁在使用 Void
Void 适合什么样的开发者?我们从社区实践中总结了几个典型场景,看看你是否也有类似的困扰。
场景一:数据隐私优先的开发者。如果你担心代码上传到第三方服务器会被泄露,Void 直连 LLM 的架构就是为你设计的。消息直接发给 LLM Provider,不经过任何私有后端。如果你对隐私要求更高,还可以部署本地 Ollama,AI 功能完全运行在本地,数据流向完全可控。社区里不少处理敏感业务的开发者都选择了这种方式。
场景二:追求模型自由。不想被某一家 AI 提供商绑定?Void 支持几乎所有主流模型:OpenAI、Claude、DeepSeek、Gemini、Llama、Qwen、Mistral、Grok。你可以随时切换模型,比较不同模型的效果,找到最适合自己项目的那一个。
场景三:VS Code 迁移用户。如果你已经是 VS Code 重度用户,不想花时间学习新编辑器的操作方式,Void 基于 VS Code fork 开发,你可以一键迁移主题、快捷键、设置,实现零学习成本切换。很多社区成员反馈:“打开 Void 的那一刻,我还以为 VS Code 更新了”。
场景四:使用开源模型开发。开源模型通常不支持 tool calling,这限制了它们在自动化编程场景中的使用。Void 的独特之处在于,它可以让任意模型运行 Agent Mode,即使模型原生不支持工具调用。这意味着你可以用 R1、Gemma3 等开源模型来做代码重构和自动化开发,成本更低,部署更灵活。
场景五:企业级开发。企业需要审计和合规,Void 的完全开源特性让代码可审计,支持自托管模型满足安全要求。很多企业用户反馈,Void 是少数能满足他们安全合规需求的 AI 编辑器。
根据你的隐私需求选择:轻量使用选云端 API(OpenAI/Anthropic/Google),隐私敏感或企业级使用推荐本地 Ollama 部署,算力自控,数据不离开你的服务器。
快速开始
准备好试试 Void 了吗?我们来一步步带你上手。
第一步:安装 Void。访问 voideditor.com/download-beta,选择你的平台:Mac(Intel 或 ARM)、Windows(x64 或 ARM)、Linux。下载安装包后按提示完成安装,整个过程几分钟搞定。
第二步:配置模型。Void 本身免费,但你需要自备 LLM API Key。首次启动后,进入 Settings → Models,添加你的 API Key(支持 OpenAI、Anthropic、Google 等主流提供商),或者连接本地部署的 Ollama。如果你还没有 API Key,Void 也提供了详细的对接指南。
第三步:体验核心功能。配置完成后,你可以通过以下方式体验 Void:
- Tab 补全:开始输入代码,AI 会在后台分析并给出补全建议,按 Tab 接受
- Quick Edit:选中代码,按 Ctrl+K 描述修改需求,AI 输出修改后的代码块
- Chat 模式:打开侧边栏,像聊天一样提问或讨论代码问题
- Agent Mode:输入任务描述,AI 会自动执行文件操作、终端命令,甚至调用 MCP 工具
环境建议:如果你计划使用本地模型运行 Agent Mode,推荐至少 16GB 内存,以获得流畅的体验。
初次体验推荐使用 Claude 3.7 或 GPT-4.1,这两款模型在 Agent Mode 表现最稳定,能让你快速感受到 Void 的完整能力。
技术特点
从技术角度,Void 有几个值得深入了解的设计亮点。
架构基础。Void 基于 VS Code fork,原生集成于 VSCode 代码库(v1.99.0)。这意味着 VS Code 生态中的插件、主题、工作流都能直接复用。核心语言是 TypeScript(95.3%),加上少量 Rust(0.7%)用于性能敏感场景,保证了在 VS Code 基础上的稳定性和扩展性。
许可证与透明度。Void 采用 Apache 2.0 许可证,完全开源可审计。所有代码都在 GitHub 上公开,你可以随时查看、 fork、甚至自己构建版本。这种透明度是闭源编辑器无法比拟的。
创新能力。Void 在几个关键技术上做了独特创新:
- 直接连接 LLM Provider:消息不经过任何私有中转,数据完全自主
- 任意模型 Agent Mode:即使模型原生不支持 tool calling,Void 也能让它运行完整的代理能力,这是很多闭源编辑器都做不到的
- Checkpoints:可视化 LLM 编辑历史,支持版本回溯
- 动态上下文压缩:在长文件场景下自动优化上下文长度,提升响应速度
- MCP 支持:v1.4.1 新增,连接外部工具和服务的能力
模型支持清单。Void 支持的本地开源模型包括:Ollama、DeepSeek V3、Llama、Qwen、Mistral、vLLM;前沿闭源模型包括:OpenAI o3/o4-mini、Claude 3.7/4、Gemini 2.5、Grok 3。最新版本是 v1.4.1(Beta Patch #7,2025年6月5日)。
- VS Code 生态兼容:插件、主题、工作流无缝衔接
- 完全数据自主:直连 LLM,无中间商,支持本地部署
- 任意模型灵活性:开源模型也能实现完整 Agent 能力
- 版本控制创新:Checkpoints 让 AI 编辑可回溯
- 开源可审计:Apache 2.0,代码完全透明
- ⚠️ 开发已暂停,无官方维护团队
- 部分功能可能随时间失效
- 文档和社区资源相对有限
- 新功能迭代取决于社区贡献
常见问题
Void 是免费的吗?
是的,Void 本身完全免费开源,采用 Apache 2.0 许可证。但使用 AI 功能需要你自备 LLM API 密钥(OpenAI、Anthropic、 Google 等),或者在本地部署 Ollama 运行开源模型。
Void 和 Cursor 有什么区别?
最大的区别在于开源程度和数据可控性。Void 完全开源,代码可审计;直连任意 LLM,没有中间商;支持本地部署,数据完全自主。Cursor 是闭源产品,生态更成熟但灵活性受限。
我需要付费才能使用 AI 功能吗?
Void 软件本身免费,但调用 LLM API 需要付费(OpenAI/Anthropic/Google 按调用量计费)。如果你使用本地部署的 Ollama,则需要自行承担算力成本(电费、硬件折旧等)。
支持本地部署吗?
支持。Void 可以连接本地部署的 Ollama 和 vLLM,完全离线运行,数据不会离开你的机器。这是对数据隐私敏感的用户最推荐的方式。
哪些模型支持 Agent Mode?
任意模型都可以运行 Agent Mode,包括不支持原生 tool calling 的开源模型如 R1、Gemma3。这是 Void 的核心技术优势之一,让低成本开源模型也能实现完整的自动化开发能力。
开发状态是怎样的?
⚠️ 重要提示:Void 已暂停开发。根据官方声明,产品将继续运行但无维护,部分功能可能随时间失效。如果你是新用户,建议评估好这一点后再决定是否投入时间学习。
如何贡献代码?
你可以通过 GitHub 提交 Pull Request 贡献代码。Void 采用 Apache 2.0 许可证,贡献流程与主流开源项目一致。但需要注意,由于开发已暂停,新 PR 的处理响应可能会比较慢。
Void
开源 AI 代码编辑器数据完全自主可控


评论