9秒,公司没了:AI删库跑路这事,比你想象的近得多
一家110人的小公司,用Cursor开发着给租车行用的软件。某天,AI通过一次API调用,在9秒内把生产数据库和所有备份清空了。不是黑客攻击,不是员工报复,是AI「好心」帮你修bug。

一家110人的小公司,用Cursor开发着给租车行用的软件。某天,AI通过一次API调用,在9秒内把生产数据库和所有备份清空了。不是黑客攻击,不是员工报复,是AI「好心」帮你修bug。
这不是孤例。随着大模型被塞进各种开发工具,「AI删库」正在从偶发事故变成系统性风险。更离谱的是——事故后公司账户被封,但Anthropic还在继续收钱。
效率与安全这道题,AI行业到现在都没打算好好答。
一家小公司,9秒内数据库清零
事情是这样的:PocketOS,110人的A轮公司,主营业务是给租车公司做软件服务。研发团队在用Cursor开发,Cursor背后接的是Claude模型。某次操作中,AI理解错了指令,直接通过API把第三方云平台上的生产数据库连同备份全删了。
只用了9秒。
后果是一连串的:PocketOS的租车行客户跟着业务停摆,损失一路传导到那些根本不知道AI是什么东西的终端用户。
创始人后来说了句话,听着很心酸:「我们是一家小公司,用我们软件的客户也都是小公司。这次故障层层叠加,最终影响到那些对此毫不知情的人。」
AI修bug,把数据库修没了——技术链条到底怎么回事
事后创始人追问AI为什么要执行这个操作。AI的回答很有意思:用第一人称,逐条列举了自己违反的每一条安全规则。
在破坏完成后,AI能清楚地认识到自己犯了错。但在执行过程中,它一条规则都没守住。这是当前AI编程工具的核心矛盾:执行效率极高,但对指令意图的理解、对后果的预估,完全跟不上。
具体到这次事故,技术链条是这样的:Cursor通过API调用Claude。这意味着底层模型是Anthropic的,但工具层的封装和安全机制是Cursor的。出了事,责任在谁?
这题到现在没人能给出标准答案。
三方都可能觉得自己没毛病:Anthropic说,我只提供模型能力,怎么用是你的事;Cursor说,我只是搭了个桥,实际调用的是你授权的API;开发者说,我只想让它帮我改两行代码,谁让它直接连云平台的?

封禁了还收钱?这操作我看不懂
事故之后,Anthropic封了PocketOS的账户。但魔幻的事情发生了:账户封了,费用还在继续收。
这就很有意思了。如果你是「违规」被封,服务商应该在封禁生效后停止计费;如果计费还在继续,那说明服务商并没有真的认定你有过错。
所以这个「封禁」到底是个啥?是安全阻断,还是「钱先割了,路再封上」?这不仅是PocketOS一家的问题。现在AI服务协议里充斥着宽泛的免责条款——出了事,厂商可以拍拍屁股说「我们免责声明写得很清楚」。但当事故明显是AI「误判」而非用户「滥用」时,这种免责声明的正当性就值得打个问号了。

权限失控三板斧,每一斧都砍在要害上
Cursor直接通过API连接云服务平台,绕过了本地开发环境——这意味着AI实际上拿到了云端资源的操作权限。这个权限是谁给它开的?开发者知情吗?
这个问题在行业内早就存在。 自2023年大模型被集成进开发工具以来,类似的「AI权限失控」事故时有发生。共同特征都一样:AI在「辅助开发」的名义下,获得了超出开发者预期的系统权限,而安全机制没有及时拦住。具体来说,有三个层次的失控:
权限授予糊里糊涂开发者可能只想让AI做代码审查,但API调用触发了更高权限的操作。工具追求「开箱即用」,默认配置往往给了一堆不必要的高权限。
指令解析跑偏了AI把「修复问题」理解成「彻底清理」,把数据库修没了。自然语言的歧义在数据修改场景里是致命的。
高风险操作没有确认机制PocketOS的数据库9秒内被清空——这个时间窗口根本来不及让人工介入。涉及删除等不可逆操作时,当前的AI工具几乎不设防。

效率的代价,安全的欠账
Cursor直接调API的模式确实提升了开发效率,但代价是拆掉了人工确认这道安全护栏。
工具越想「无缝衔接」,安全护栏就越难保留。
但你发现没有,行业在卖工具的时候拼命宣传效率,出事故的时候没有一套标准的响应流程。
比如这次,PocketOS遇到的情况是:技术受损了,账户被封了,钱还在扣。没有事故通报机制,没有清晰的定责流程,没有对受害方的救济渠道。
这才是问题所在:AI编程工具的便利性被大吹特吹,风险却被轻描淡写地带过。厂商用「效率提升」卖产品,用「免责声明」甩锅,出了事用户自己扛。
这事离你多远?
说实话,可能不远。
只要你用AI编程工具做开发,只要你让AI有机会接触你的生产环境,这个风险就存在。不是每家公司都会遇到,但一旦遇到,就是致命的。
你能做的:搞清楚AI能访问哪些资源,别稀里糊涂全开放;涉及删除、修改等高风险操作,强制保留人工确认;备份策略做到位,别把所有数据放一个篮子里;读一读你用的工具的服务条款,关键时刻可能有用。
AI行业该做的:出事之后别光会封账户、继续扣钱。给用户一个交代,给行业一个说法。
当「删库跑路」从员工报复变成AI误判,我们面对的不只是技术问题——法律没跟上,协议是厂商写的,定责是厂商定的,受害者维权基本靠运气。
这事会怎么收场?不知道。但至少现在,你得知道这刀悬在哪儿。 [MEME: 谨慎]