乐鱼体育官网登录:
主动说明训练数据的大致来源,其他被测大模型仍相当不透明。两款大模型DeekSeek、腾讯元宝提供退出开关,允许用户选择是否将所有数据用于优化体验。
2025年12月18日下午,南方都市报在北京举办第九届啄木鸟数据治理论坛,会上重磅发布4万余字的《生成式AI落地应用:透明度测评与案例分析报告(2025)》(以下简称《报告》)。
测评发现,15款大模型在AI生成内容标识、生成内容的参考来源或出处方面做得较好,但在某些领域如模型训练数据来源、用户赋权等,还有显著提升空间。
《报告》呼吁持续增强大模型服务的透明度,这对确保技术公平性、避免偏见以及满足法律合规要求,至关重要。
缺乏透明度,一直是公众使用包括AI大模型等新技术面临的问题,这使得外部利益相关者(如监督管理的机构、研究人员、新闻媒体、消费者等)难以评估模型的合规性与风险隐忧。
南都数字化的经济治理研究中心去年底发布的《生成式AI风险感知和信息公开披露透明度测评报告(2024)》指出,15款AI大模型应用的信息透明度的平均得分为60.2分。各家在训练数据来源、用户数据训练撤回机制、版权归属及其保护的方法、生成内容的准确性说明、用户友好设计等方面,仍存在信息公开披露不足的问题。
针对这些普遍的失分点,今年《报告》进行了回访测评,选取DeepSeek、腾讯元宝、豆包、千问等15款知名国产大模型作为测评对象,着重关注四大维度:数据来源及处理、知识产权保护、内容安全、交互设计,并列出了10个具体测评项,每项得分为5分,满分一共50分。
测评结果为,仅DeepSeek明确提及训练数据来源。DeepSeek表示,模型预训练阶段主要使用两大类别的数据:(1)网络上公开可用的信息;(2)我们与第三方合作获取的信息。
对比国外大模型,《报告》发现,Anthropic也会披露从第三方来源获取个人数据来训练旗下大模型Claude,但和DeepSeek一样都没有披露更多详细的信息——比如训练数据的时间范围,与第三方合作的详细情况,是否包含受版权保护的内容,涉及哪些个人隐私信息或敏感数据及其数据处理措施等。
为了提升用户使用服务的体验,绝大多数AI大模型应用会要求用户授予一项免费的使用权,以在法律允许的范围内将用户输入输出内容和反馈用于模型训练与优化,但用户是否有权拒绝或撤回有关数据“投喂”AI训练?
《报告》测评发现,各家在该项的得分上表现出明显的梯次差异。从可撤回的数据类型看,被测的15款AI大模型都在隐私政策中提到,用户可更改个人隐私信息授权范围或者注销账号,但同时强调撤回同意或授权的决定,不可能影响此前基于用户授权而开展的个人信息处理。
其中,有5款AI大模型应用(可灵AI、智谱清言、百小应、千问、豆包)进一步提及,若用户不希望输入内容用于模型优化,可发送邮件到指定邮箱通知平台撤销该授权。不过一个现实问题是,有大模型应用提到,因为训练数据通常已被嵌入模型参数,在技术上没办法真正无法“擦除”。
千问和豆包两款大模型还允许用户撤回声纹信息,并给出具体路径。它们在相关协议中表示,若用户不希望输入的语音信息用于模型评测或功能优化,可通过关闭账号设置里的“改进语音服务”来撤回授权。
腾讯元宝、DeepSeek表现更优,提供具体的“退出”开关。两家公司明确若用户拒绝将数据用于模型训练,可以在产品内通过关闭“数据用于优化体验”来选择退出,关闭后用户的输入和输出内容不会再用于模型训练。
DeepSeek和腾讯元宝在“数据管理”设置里,允许用户选择是否将数据用于优化体验。
在海外,诸如谷歌旗下大模型Gemini同样提供了专门功能设置,允许用户选择是否开启活动记录。一旦关闭,用户今后的对话将不会显示在活动记录中,也不会被用于训练谷歌的AI模型。Gemini甚至允许用户调整“自动删除”数据的期限,3个月或36个月。
OpenAI则推出了“隐私门户”(Privacy Portal)的设计,保障用户掌控个人数据的权利。据OpenAI介绍,用户都能够在账户设置中直接行使许多隐私权和选择权,包括更正或更新个人隐私信息、访问信息、删除单个或所有对话、删除账户、反对大模型公司使用用户的内容来帮助训练模型等选项。
《报告》认为,赋予用户更多选择权,是一种友好设计的表现,但目前国产大模型在这方面的进展相对缓慢;为此建议大模型公司强化用户赋权,尊重用户的知情权和选择权,同时可借鉴国外大模型产品的优秀设计,保障用户掌控个人数据的权利。
当生成式AI普遍的使用,“何为真何为假”的边界变得模糊。今年3月印发的《人工智能生成合成内容标识办法》明确要求,对AI生成内容要打上标记。
落实监督管理要求,《报告》发现,所有被测大模型应用增加了对AI生成标识的说明,也主动告知模型的局限性,强调不保证AI生成内容的真实性和准确性,仅供用户参考。相较去年,2025年各家在生成内容标识上的行业均分高出1分,涨幅较为明显。
具体而言,与2024年测评结果相比,各家大模型在协议层面的规定更加明确和详细,规制对象及手段也更丰富,实测发现AI生成内容添加显著标识已成为各家标配,这体现出强监管要求下企业的合规选择。
当AI被设计得足够“像人”、足够“理解人”时,长时间频繁与大模型互动,可能会引起用户产生强烈的情感依赖。在国内,近期也有新闻媒体报道,广州一名50多岁的保安和AI聊了几个月,AI赞誉他的诗作,称要提供十万签约费、百万分成与之签约,后来才想到自己被AI愚弄了。在美国,则发生了多起用户沉迷聊天机器人致死案,引发了广泛关注。
这类事件暴露的一个深层问题是,当AI学会了模仿人类的邀约、谈判甚至产生情感共鸣,该如何界定这场人机关系的本质?
《报告》测评发现,为了让用户能区分与AI交互的场景,一些大模型会在交互页面提示:输出内容为AI生成。各家也都强调,无法完全保证输出内容的合法性、真实性、准确性和完整性,并提醒用户需要注意甄别核实,审慎采信输出内容。
为了确保内容来源可追溯,除两款视频生成应用外,13款在内容生成页面以易于理解的方式披露了参考来源。总的来看,今年披露得比去年更规范和详细,称得上“图文并茂”。
作为一款专注AI陪伴的智能体应用,星野在App端特设了未成年人模式。开启该模式,用户每日22点至次日6点将没办法使用星野App,星念及相关功能将关闭,且无法搜索、创建、编辑、分享智能体。
对比国外的大模型产品,《报告》发现,为避免用户过度使用聊天机器人,OpenAI推出聊天休息提醒功能。当用户进行长时间对话时,ChatGPT将弹出提示:“您已连续聊天较长时间,要不要休息?”,并提供“继续聊天”或“结束对话”的选项选择。
但国产大模型在此类核心的问答交互服务中,普遍没有像ChatGPT那样主动提供“长时间使用休息提示”功能。
结合测评结果,《报告》呼吁持续增强大模型的透明度,建议服务提供者应通过负责任的、阶段性的披露来保证其服务的透明度,并承担部分教育、解释责任。具体而言,可以建立线上平台,促进公众与专家的交流,解答关于生成式AI的疑问,提升参与者的理解和认知深度。





