OpenWork 是开源的 Claude Cowork替代品,基于 OpenCode 引擎,提供可视化 AI 任务执行、权限控制与技能插件系统,主打本地优先、非技术友好,让 AI 真正融入日常工作流。
开源新星 OpenWork:把 AI 助手变成你桌面上的“同事”
OpenWork 是一款由开发者 Benjamin Shafii 主导打造的开源桌面应用,目标是成为 Claude Cowork的开源替代品。它基于 OpenCode 引擎构建,采用 Tauri 框架(Rust + TypeScript)开发,主打本地优先、权限可控、技能可插拔的 AI 协作体验。不同于传统聊天机器人,OpenWork 让 AI 能真正执行文件操作、自动化流程,并通过可视化界面展示执行计划与进度,让非技术人员也能安全高效地使用 AI 完成日常任务。
Benjamin Shafii 是一位注重隐私与本地化部署的开发者,他最初开发 OpenWork 是为了让自己和妻子能在家用 AI 控制 Home Assistant、部署私有 Web 应用(如家庭食谱网站 recipes.benjaminshafii.com)或管理合法种子下载等任务,而无需依赖命令行或共享服务器凭证。他发现直接使用 OpenCode 的 Web UI 对非技术用户极不友好,于是决定打造一个更直观、更可靠的图形界面,最终演变为今天的 OpenWork。
这款工具目前处于早期 Alpha 阶段(v0.x),但已支持本地运行、远程连接、权限审批、技能插件管理等核心功能,并完全开源(MIT 许可证),允许用户自带 LLM API 密钥(如 OpenAI、Anthropic),实现模型自由选择与成本透明。其背后生态依托 OpenPackage(opkg)插件系统,支持一键安装 Claude Skills 等跨平台 AI 技能包,未来有望形成类似 Obsidian 的可扩展 Agent 工作流生态。
不是聊天机器人,而是能干活的 AI 同事
很多人对 AI 的印象还停留在“问问题—得答案”的对话模式,但 OpenWork 走的是另一条路:让 AI 成为能实际执行任务的“数字员工”。它不满足于只输出文字,而是能读写文件、调用工具、组织内容、甚至部署网站。关键在于,这一切操作都通过清晰的图形界面呈现,用户能看到 AI 接下来要做什么、为什么这么做,并在关键步骤手动确认权限——比如“是否允许删除这个文件夹?”或“是否允许向 GitHub 推送代码?”
这种设计彻底改变了人机协作的逻辑。传统 CLI 工具要求用户熟悉命令、配置文件和日志输出,而 OpenWork 把这些技术细节封装起来,只留下直观的“工作空间 + 运行任务”流程。用户只需选择一个项目文件夹(Workspace),输入任务描述(如“整理本月销售数据并生成报告”),系统就会自动生成执行计划(Execution Plan),以时间线形式展示每一步操作,并在需要时弹出权限请求窗口。整个过程像使用 Excel 或 Notion 一样自然,而非调试脚本。
更重要的是,所有操作都可审计。系统会记录“什么时间、执行了什么、结果如何”,方便回溯和复盘。这种透明性极大降低了误操作风险,也让团队协作更可信——比如市场人员可以安全地更新网站文案,而无需接触 Git 或服务器密码。
本地优先,数据完全掌控在自己手里
在当前 AI 工具普遍依赖云端服务的背景下,OpenWork 坚持“本地优先”原则显得尤为珍贵。默认情况下,所有 AI 任务都在用户本机运行,模型推理虽仍需调用外部 API(如 Anthropic 或 OpenAI),但文件操作、流程调度、权限管理全部发生在本地。这意味着你的代码、文档、财务数据永远不会上传到第三方服务器,真正实现“数据主权归用户”。
当然,OpenWork 也支持远程模式。如果你有一台性能更强的家用服务器或公司内网机器,可以在那台设备上运行 opencode serve 命令,然后从其他电脑通过 OpenWork 客户端连接。这种“主机-客户端”架构既保留了本地控制的灵活性,又兼顾了资源密集型任务的需求。例如,设计师在家用轻薄本发起一个视频转码任务,实际计算则由书房里的高性能主机完成,全程无需暴露内网 IP 或复杂配置。
开发者 Benjamin 特别强调:“没有黑盒,没有托管锁定。”未来随着本地大模型(如 Llama 系列)性能提升,OpenWork 甚至可能完全脱离云端 API,实现真正的离线 AI 助手。这种前瞻性设计让它在隐私敏感行业(如法律、医疗、金融)具有天然优势。
技能插件系统:像装 App 一样扩展 AI 能力
OpenWork 最具潜力的部分在于其插件生态——它不是单一功能工具,而是一个可成长的平台。通过集成 OpenPackage(简称 opkg),用户能像在手机应用商店下载软件一样,一键安装各种 AI 技能包(Skills)。这些技能包本质上是预配置的规则、命令、子代理和工具链的集合,专为特定场景优化。
例如,你可以安装一个“Markdown 博客发布”技能,之后只需说“把这篇草稿发布到我的 Hugo 博客”,AI 就会自动格式化内容、生成元数据、推送到 GitHub Pages;或者安装“家庭账单分析”技能,上传银行 CSV 文件,AI 会自动分类支出、绘制图表并邮件发送周报。目前社区已支持从 GitHub 直接安装 Claude Code Plugins,包括官方和第三方开发的数十种技能。
技术上,这些技能以标准化目录结构存储在 .opencode/skill/ 下,每个包包含 openpackage.yml 清单文件及 rules/、commands/、agents/ 等子目录。OpenWork 的“技能管理器”界面让用户无需接触文件系统,即可浏览、安装、卸载或导入本地技能包。更妙的是,opkg 支持跨平台转换——同一套技能可自动适配 Cursor、Claude Code、OpenCode 等不同 AI 编辑器,彻底解决“重复造轮子”问题。
这种模块化设计正是未来 AI 工作流的核心趋势:知识工作者不再从零开始训练 AI,而是组合现成的“能力积木”,快速搭建专属自动化流水线。
自带模型密钥,拒绝厂商绑定
许多商业 AI 工具将用户锁定在自家模型生态中,而 OpenWork 坚持“Bring Your Own Key”(自带密钥)策略。用户可在设置中填入自己的 OpenAI、Anthropic 或其他兼容 LLM 的 API 密钥,系统会自动调用对应模型处理任务。这意味着你只需为你实际使用的模型付费,无需额外订阅 OpenWork 服务——毕竟它本身完全免费开源。
这种模式带来两大好处:一是成本透明,避免隐藏费用;二是模型自由,可根据任务需求切换不同模型。比如写营销文案用 Claude 更流畅,调试代码用 GPT-4 更精准,未来还能无缝接入国产大模型。开发者 Benjamin 明确表示:“我们不做模型,只做让模型更好用的工具。”
值得注意的是,虽然模型调用目前仍需联网,但 OpenWork 的架构已为本地模型预留接口。一旦 Ollama 或 LM Studio 等本地推理框架成熟,用户只需修改配置即可切换至完全离线模式,进一步强化隐私与自主性。
专为“非技术用户”设计的交互哲学
尽管底层基于 OpenCode(一个面向开发者的 CLI 工具),OpenWork 的 UI 设计却刻意避开技术术语。开发者 Benjamin 在 Hacker News 上坦言:“当前版本还是太技术了,我们的目标是让会计 Susan 五分钟内完成一个小任务。”为此,团队正推进三大改进:
首先是简化安装流程。目前 macOS 用户需下载未签名的 DMG 文件,未来将提供公证版本;Windows 和 Linux 版本也在规划中。其次是内置 OpenCode 引擎,用户不再需要手动安装 opencode CLI,开箱即用。最后是界面语言优化,用“运行任务”“查看进度”等日常词汇替代“Session”“SSE 流”等开发者黑话。
实际体验中,这种理念已初见成效。任务执行界面以时间线形式展示待办事项(Todos),每步操作配有通俗说明;权限弹窗明确标注“此操作将修改您的 Documents 文件夹”,并提供“仅本次允许”“始终允许”“拒绝”三个选项;历史记录按日期归档,点击即可重放完整流程。这些细节让非程序员也能理解 AI 在做什么,从而建立信任感。
正如一位早期用户所说:“我终于可以把 OpenCode 的能力分享给同事了,他们再也不用看终端日志猜进度。”
与 ACP 协议的潜在融合前景
在 Hacker News 讨论中,有用户提问是否考虑集成 Agent Client Protocol(ACP)——这是由 Zed 编辑器推动的 AI 代理互操作标准。开发者 Benjamin 回应称,OpenWork 已通过 OpenPackage 实现类似能力,但并未排除未来原生支持 ACP。
ACP 的核心价值在于统一 AI 代理与编辑器的通信协议。目前 Goose、Gemini CLI、Claude Code 等代理均已支持 ACP,可在 Zed、JetBrains IDE、Neovim 等环境中无缝运行。若 OpenWork 加入 ACP 生态,意味着其技能包不仅能用于自身桌面应用,还能直接驱动主流代码编辑器中的 AI 功能,形成跨工具协同网络。
技术上,OpenWork 的后端 opencode 本身已是 ACP 兼容代理(根据 Zed 官网列表),前端只需增加 ACP 客户端连接选项即可。这种开放姿态符合项目“无锁定”原则,也为开发者提供了更广阔的集成想象空间——比如在 JetBrains IDE 中触发 OpenWork 的家庭自动化技能,或在 Neovim 里调用其文档生成模板。
适合谁用?从家庭主妇到企业团队
OpenWork 的目标用户远不止程序员。家庭场景中,它可以帮你自动整理照片库、监控智能家居状态、生成购物清单;个人创作者可用它批量处理播客字幕、同步多平台社交媒体内容;中小企业团队则能构建无代码工作流——市场人员更新官网文案,AI 自动提交 PR 并通知开发审核;HR 输入招聘需求,AI 生成 JD 并发布到多个平台。
关键在于“权限隔离”设计。高危操作(如删除文件、部署服务)必须手动确认,而低风险任务(如格式化文本、生成摘要)可设为自动执行。这种分级控制让不同角色各取所需:技术负责人配置技能模板,普通员工专注业务目标,无需学习 Git 或 Shell。
正如 Benjamin 所言:“理想状态是,我设置好远程服务器,家人只需一次连接,之后就能安全使用所有功能。”这种“技术者搭建,非技术者受益”的混合模式,可能是 AI 普及的关键路径。
当前局限与未来方向
作为 Alpha 项目,OpenWork 仍有明显短板。安装流程对普通用户不够友好,macOS DMG 未签名导致安全警告;文档尚不完善,技能市场处于早期阶段;部分界面仍残留技术术语。但开发者路线图清晰:短期聚焦安装体验与新手引导,中期完善技能生态,长期探索本地模型集成。
社区反馈显示,用户最期待的功能包括:预置常用模板(如“博客发布”“数据清洗”)、更直观的进度可视化、以及移动端支持。考虑到其 Tauri 架构天然支持跨平台,未来推出 iOS/Android 客户端并非难事——想象一下,在手机上语音指令“把会议录音转成待办事项”,AI 在后台自动完成全流程。
开源许可证(MIT)也为其发展扫清障碍。任何公司或个人均可 fork 代码,定制企业版或垂直领域版本,而无需担心授权风险。这种开放性正是它区别于 Claude Cowork等闭源产品的核心优势。
如何开始使用?
目前有两种方式体验 OpenWork:
第一,直接下载 macOS 版 DMG 文件(需在系统设置中允许“未知来源”应用);
第二,从 GitHub 克隆源码,安装 pnpm 和 Rust 工具链,运行 pnpm install && pnpm dev。
前提是你已全局安装 OpenCode CLI(opencode)。若未安装,OpenWork 会自动通过 pnpm dlx 临时调用 opkg。首次启动后,选择“Host 模式”指定项目文件夹,或“Client 模式”连接远程服务器,即可开始创建任务。
建议先尝试简单任务,如“列出当前文件夹所有 PDF 并生成摘要”,观察执行计划与权限请求流程。熟练后,可通过技能管理器安装 openpackage://essentials 等基础包,逐步构建个性化工作流。