时评观点 理论研究

警惕AI大模型过度采集用户隐私信息

宋扬

2023年11月20日 02:38

江德斌
深圳特区报 2023年11月20日A06版

近日有网友发现,WPS在其“隐私政策”中提到,“我们将对您主动上传的文档材料,在采取脱敏处理后作为AI训练的基础材料使用”。11月18日,WPS官方微博做出回应,在向用户致歉的同时,承诺用户文档不会被用于AI训练目的。

此前,WPS 发布AI公测,声称可以帮助用户润色、续写、扩充文档,写表格公式,生成PPT等,有助于提升用户学习、办公效率。但是,WPS在隐私政策方面的越界行为,违反采集数据信息的“最小化原则”,涉嫌不当获取用户隐私信息。在广大用户和社会舆论的质疑下,WPS被迫公开致歉,并修改相关条款,也算是悬崖勒马了。

然而,这件事引发的争议,并未就此终结。目前,AI处于炙手可热的发展阶段,各大科技公司发布的AI大模型,已经超过了上百个,这些AI大模型在各个领域均需要海量数据用于训练,而数据来源的合法性、持续性,就成了问题。

早在今年7月,一款骤然爆火的“妙鸭相机”,亦曾在“用户协议”中,声称可将用户信息以“任何形式任何范围使用”,在引起网友和舆论批评后,删除了相关条款。可见,随着AI技术的落地应用,一些科技公司急于市场竞争,试图使用用户隐私信息,不可避免地会触及相关法律红线,埋下信息安全隐患。

过度采集用户隐私信息,可能对用户的个人安全和财产安全造成威胁。一旦这些隐私信息遭到非法泄露,被不法分子获取,就可能利用信息实施诈骗、盗用身份等违法行为,给用户带来巨大的财产损失。因此,监管部门要提高警惕,及早采取措施打击乱象,防范AI大模型过度采集、滥用个人隐私信息数据。

国家网信办等多部门发布的《生成式人工智能服务管理暂行办法》明确,应当依法开展预训练、优化训练等训练数据处理活动,使用具有合法来源的数据和基础模型;涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形。各大科技公司要主动遵守相关规定,做AI训练时,应严格遵循“最小化原则”,不得跨越红线。

(作者系媒体评论员)


]]>

2023年11月20日 10:39
126
劳动者的合法权利不能“二选一”