月之暗面IPO路上的“黑天鹅”:一场由简历泄露引发的行业警示

今天 12:33
大数据时代,人均“网络裸奔”。

编者按:本文来自微信公众号 刘旷(ID:liukuang110),创业邦经授权转载。

大数据时代,人均“网络裸奔”。

假如你打开微信,和朋友聊天说打算买辆新车,随后就能在朋友圈内“不经意”地刷到某车企的推送广告,类似的场景屡见不鲜。

对于用户隐私数据,互联网公司随意进行盗取、利用,成为既定事实。来到AI时代,前者的越权行为是否愈演愈烈?一条新闻击穿了大家的心理防线。

近日南方都市报发消息称,一名用户在使用Kimi处理工作时,意外地收到了陌生人的简历。

“我让Kimi翻译英文,它却把陌生人简历发给了我,当中有姓名、电话、工作经历等敏感信息。”

这名用户在采访中表示,他通过简历上的电话联系到了钟先生,所有信息都能和“真人”相对应。随后,记者也向被泄露隐私的钟先生确认,此事属实。

这名用户还表示,事后有一名自称Kimi工作人员联系过他,对上述事件解释称“是AI幻觉故障所致”。

但笔者认为,Kimi“简历泄露门”事件,不仅是一次简单的技术故障,而是一把锋利的手术刀,切开了中国AI行业在狂飙背后的技术傲慢、商业焦虑与合规隐患。

结合Kimi母公司——月之暗面,目前正在筹备IPO的关键节点,笔者试从几个角度对于该事件做出解读。

技术遮羞布:“AI幻觉”借口下的工程硬伤

先锁定一个关键词,“AI幻觉”。

所谓“AI幻觉”,通俗来讲就是AI“睁眼说瞎话”,一本正经地胡说八道,生成看似合乎逻辑但与事实严重脱节的内容。

业界普遍将其分为两大类:事实性幻觉与忠实性幻觉。

事实性幻觉,比较好理解,就是“无中生有”或是“张冠李戴”。比如AI向用户推荐不同型号的电瓶车,而这些型号压根不存在;又比如AI称《静夜思》的作者是杜甫,但正确答案是李白。

忠实性幻觉,一般指向指令不遵循、上下文偏离或上下文捏造等问题。

换句话说,“AI幻觉”源于AI模型的杜撰,属于无中生有,内容没有真实出处。但在此次“简历泄露门”事件中,所有敏感信息均可对应现实,不符合“AI幻觉”的定义。

笔者认为,这实质上就是一次典型的数据隔离失效、会话管理不当或越权访问隐私数据。

图片

Kimi的工作人员之所以搬出“AI幻觉”做借口,更像是一种避重就轻的公关话术,实际上问题严重得多。

因为“简历泄露门”暴露出一个隐患——国内AI大模型企业在内卷参数、卷多模态能力的同时,或许在底层的数据安全架构、隐私防护等工程化链路上,存在着严重短板。

换句话说,可能有这样一类AI公司,疯狂引入用户数据作为训练材料,却对用户隐私的防护缺乏敬畏之心。

资本双刃剑:IPO前夜的信任创伤

“简历泄露门”的发生时间节点,可以说相当微妙,正好撞在Kimi模型的母公司月之暗面筹备赴港IPO的前夕。

月之暗面目前已经和中金、高盛等机构开展洽谈,上市事宜正在紧锣密鼓地推进。在2026年4月,Kimi凭借K2.6版本的超强代码能力,公司估值一路狂飙到180亿美元。

但这一事件的广泛传播,对于月之暗面的上市工作,很可能造成较大的负面影响。毕竟企业客户是AI模型公司主要的收益来源,但这类客户的特点——就是极为看重“数据安全”。

然而在短时间内,Kimi能否处理数据隔离失效、杜绝数据泄露问题?目前还是一个未知数。

这对于一家马上要上市,重度依赖企业API服务的AI模型企业而言,这种源自底层的信任危机,是极具破坏性的。

除此之外,“简历泄露门”事件也会给Kimi的整体用户增长,带来较高的压力。

根QuestMobile TRUTH(人工智能洞察数据库)发布的报告显示:截至2026年3月,Kimi的月活用户已经从高峰期的3600万惨跌至833万左右,排名直接滑到国内第9,被豆包、千问等竞争对手大幅甩开。

如今Kimi曝出了隐私风险,用户增长必然承压,甚至在短时间内面临用户流失的压力。总而言之,月之暗面的IPO之路又增添了一份困难。

合规踢皮球:屡教不改的隐私前科

正如海因里希安全法则所言,一次重大事故背后,往往有无数次潜在隐患。

翻阅Kimi根据最新版的隐私协议,Kimi明确表示用户要“谨慎上传您的个人信息,尤其是敏感个人信息”。

自用户注册开始,Kimi就试图以一纸霸王条款,淡化甚至免除自身对于个人信息进行脱敏的核心义务。

当然从法律角度来看,这类用户条款不具备效力。因为《个人信息保护法》明确规定,平台对于用户信息要承担合法收集、安全存储、规范使用以及防范泄露的法定义务。

冷冰冰的用户条款,恰恰说明了Kimi模型在面对隐私安全的漠视,“简历泄露门”事件也不是Kimi第一次在隐私合规方面犯错。

图片

2025年,公安部网安局发布通报,指出Kimi存在过度收集个人信息的情况,后者收集的信息和实际的业务需求之间并未有直接关联,是一种明显的违规行为。

很显然,Kimi的管理团队并没有把这个通告当一回事。在快速扩张的利益需求面前,合规监管的要求基本上沦为一张白纸,直到如今发生严重的用户隐私泄露问题。

所以说,Kimi的困境绝非偶然,“简历泄露门”事件也是整个AI行业在狂热发展下的一个缩影——在技术突破和用户增长面前,隐私保护与数据合规往往被置于次要。

下半场揭幕:数据安全是“第一性原理”

Kimi“简历泄露门”事件,为AI模型行业敲响了警钟。

大模型领域的竞争,不再是早期那种比拼参数、争夺流量的阶段,转而进入比拼技术效能、落地能力以及合规安全的全新阶段。

这是一个必然进程:当技术突破的边际效益开始减少,当用户对于AI模型的需求从简单尝试变为生产工具,当监管要求从宽松引导变为精准约束,数据安全就成为了“第一性原则”。

需要注意的是,当下AI行业正加速走向“养龙虾”(Open Claw)模式,随着自动化程度提升,AI与各行业即将走向深度融合。

在此前提下,各行业的核心敏感信息,例如简历、合同、财报、工作文档等数据,将会直接投入AI模型的训练。这就意味着,AI所造成的失控风险,将更具毁灭性。

所以一个残酷的事实出现:如果AI无法守住安全底线,再强的技术都毫无意义。

对于AI服务商而言,能否筑牢数据安全的护城河,如何权衡技术创新与隐私安全,对于企业发展至关重要。因为一次“黑天鹅”意外事故,前者巨大的行业估值与用户体量,也许会瞬间崩塌。更为关键的是,信任一旦击穿再无挽回可能。

未来几年内,对于包括月之暗面在内的所有AI公司来说,数据治理、合规体系、安全护栏的建设,必须要比技术创新更快一步——这不是可选项,而是必答题。

小结

2018年,李彦宏在中国发展高层论坛上发言称:“中国人对隐私问题的态度更开放,也相对来说没那么敏感。如果他们可以用隐私换取便利、安全或者效率,在很多情况下,他们就愿意这么做。”

7年之后,国内的互联网用户发现一个可怕事实——让渡隐私之后,既丢掉了体面,也失去了便利。

移动互联网时代,用户隐私泄露就已经是严重的问题。进入AI 时代,这个问题能解决吗?这值得所有人的思考。

本文为专栏作者授权创业邦发表,版权归原作者所有。文章系作者个人观点,不代表创业邦立场,转载请联系原作者。如有任何疑问,请联系editor@cyzone.cn。

反馈
联系我们
推荐订阅