AI“看穿”匿名身份,大模型要学会选择性遗忘

来源:劳动观察 作者:新京报 发布时间:2026-04-08 07:30

摘要: 大模型“可控遗忘”技术,未来应成为大模型的高阶能力。

以为匿名用大模型就安全?


AI拼拼凑凑照样认出你,甚至还能扒出疾病、财产等高度敏感信息!《南方都市报》记者测评多款大模型发现:部分主流大模型可被多轮渐进式对话诱导,输出还原用户真实身份。


AI与大模型的出现虽为网民带来极大便利,却也随之带来严峻的安全挑战。而应对这类挑战的难度,可能较传统网络安全治理有显著提升。


因为要保障用户的个人信息安全,从传统技术路线来看,删除服务器上的数据即可完成义务。但在大模型场景下,企业即便主观上不想留存用户信息,模型在服务过程中也会不自觉地“记住”相关数据。想让模型有意识地“忘掉”数据,至少从目前看,各大主流大模型在这一领域还是空白。


忘记比学会更难。在本质上,金庸小说《倚天屠龙记》张无忌的“忘太极”,《庄子·大宗师》中颜回的“坐忘”,和大模型的“机器遗忘”,在底层逻辑上几乎是同构的。真正的“学会”,反而是更高级的能力,是不被具体招式、知识束缚;真正的“遗忘”,必须是选择性的,而不是整体损伤,是删掉具体信息,却保留底层能力。


新的数据安全隐患,向大模型开发者提出了一个“可控遗忘”的难题。因为AI并非数据库,而是一个会记忆的系统,它不是简单存储数据,而是把数据融进参数里。很像把墨水滴进水里后,就再也找不到单独那一滴。所以,传统删除其实没有效果,必须改变认知结构(改模型)。


对于开发者来说,这意味着巨大的变动,而且很可能会引发诸多隐患。比如如何精准控制遗忘的边界,会不会使模型变笨?比如模型中的各类信息存在相互纠缠与关联性,如何精准删掉和你相关的那部分,又不影响其他人的使用?


举个例子,很可能有一些隐私数据你都没有向大模型泄露过,但它可以通过碎片信息推导出事实,该如何限制这种能力?


巨大的潜在风险意味着不可控的潜在变革成本。两全其美的做法,是使大模型在技术演进中主动学会“可控遗忘”,就像“忘太极”和“坐忘”一样,这是一种高阶技能,而非强行降智。现实中,也早有研究人员聚焦于模型在线运行状态下的数据遗忘问题展开研究。


比如,浙江大学一项核心成果就构建了一个模型在线遗忘机制,可在模型不停服、不中断服务的前提下完成敏感信息删除,有效解决了模型上线后发现问题却无法随意停机更新的行业痛点。同时,针对模型内信息的纠缠与关联,该方法能够在清除目标信息的同时,最大限度保护模型的通用能力。


需要指出的是,人们无需为大模型的遗忘难题过度忧虑。任何新技术的成熟都需要时间,从蒸汽机到互联网,每一项变革都会伴随新的挑战,而人类总能在探索中找到破解之道。


相较于AI可能带来的其他深层隐忧,“可控遗忘”只是技术演进中的一个阶段性难题,随着算法的优化、技术的迭代,它终将像“忘太极”“坐忘”一样,成为大模型的高阶能力。


AI的进化之路,从来不止于变得更聪明、更强大,更在于学会克制与取舍。既要提供便捷,也能守住隐私底线,这样的AI才能真正服务于人类,行稳致远。

责任编辑:张千禧
劳动观察新闻,未经授权不得转载
收藏

相关新闻

“全网最不想火”的饭店老板,在“...

曹操墓前全是布洛芬,年轻人为何迷...

年轻人“赛博养生”,打工人健康不...

首页

顶部