这次的dangerouslyDisableSandbox修复,说明 AI 工具的沙箱隔离机制是不可靠的。一旦沙箱失效,它执行的命令可以突破项目目录,甚至操作系统文件、修改配置,后果不堪设想。
很多时候 AI 不会直接删文件,而是悄悄修改关键配置、覆盖代码提交记录、修改依赖版本,这些问题短时间内难以发现,等到线上出问题,根本追溯不到源头。
案例里的budgetpilot因为有 GitHub 备份才没全丢,而纯本地的accounting_buddy差点没了。本地提交不算备份,推送到远程仓库才是,而且要养成频繁提交的习惯。
永远不要给 AI 工具过高权限不要用 root管理员权限运行 AI 编程工具,给它单独创建一个低权限用户,限制它只能访问项目目录,禁止访问系统关键路径。
敏感操作必须人工二次确认所有涉及删除、覆盖、修改配置、执行高危命令的操作,哪怕 AI 说得天花乱坠,也要先看清楚命令内容,必要时先在测试环境跑一遍,再到生产环境执行。