个人数据,大模型的免费养料与用户的无奈选择

。报告从五个维度对主流网络平台应用生成式AI的信息披露透明度进行了测评:包括是否提及AI大模型的条款、是否明确告知将用户数据用于AI大模型训练、是否具体告知哪些用户数据会被用于AI大模型训练、是否告知这些数据提供给哪些第三方公司用于AI大模型训练,以及是否给用户提供拒绝个人数据被用于AI大模型训练的机制或功能。

报告选择了十家主流互联网平台进行测评,涵盖了内容平台、电商平台、本地生活服务平台、OTA平台等常见类别,并将国内平台与海外头部社交平台的做法进行了对比。测评结果显示,虽然部分平台在规则中提及了生成式AI的应用,但仅有少数几家平台明确告知将用户数据用于AI大模型训练和优化。

令人担忧的是,这些平台虽然承诺对数据进行安全加密技术处理、严格去标识化且无法重新识别特定个人,但却缺乏提供用户拒绝授权的功能。相比之下,一些海外头部平台在协议中明确告知了用户退出机制。

由于国内平台未提供类似的退出机制,一些用户选择在所处平台发布“反向声明”,拒绝平台将用户上传的内容用于人工智能开发。有法律实务界人士分析认为,这类声明符合法律规定,并具有法律效力。但问题在于,AI爬取时也许并不能识别这类声明。因此,最理想的解决方式是平台提供专门用于屏蔽AI爬取功能的窗口。

报告建议,互联网平台应给予用户更多的选择权利,提供便捷的退出功能,让用户有权在设置中选择是否同意个人数据被用于模型训练。此外,报告还发现,部分被测评的App存在提供生成式AI服务,但没有披露是否将用户数据用于模型训练的问题。

报告还指出,作为平台重要资产的用户数据,容易成为其他公司觊觎的对象。因此,报告建议平台应增强在数据保护方面的透明度,并明确规定用户数据的使用范围和方式。

面对AI内容安全问题,国内平台采取了由平台与用户共同承担信息安全义务的做法。报告指出,平台规则要求用户主动为AI内容进行标识,若用户未能履行相应义务,平台有权采取处置措施。例如,小红书的协议便规定,平台有权对相关内容和账户采取包括但不限于增加标识、限制、封禁等措施。

南都数字经济治理研究中心呼吁,为了维护用户的合法权益,互联网平台应进一步完善其数据披露机制,增强透明度,并提供用户拒绝和退出的渠道。只有这样,才能确保用户数据的安全和隐私,促进互联网的健康发展。