肖飒团队 | 律师实操体验!国产大模型合规哪家强?
2024-05-2012:14
肖飒 lawyer
2024-05-20 12:14
肖飒 lawyer
2024-05-20 12:14
收藏文章
订阅专栏

随着 AIGC 大模型“百模大战”的日趋激烈,越来越多的生成式人工智能服务提供者开始入局,每个月,都会有大量各具特色的人工智能大模型,依照《生成式人工智能服务管理暂行办法》的要求,登上国家网信办的备案清单。然而,据《每日经济新闻》记者的不完全统计,截至今年 5 月,国内共计推出的 305 个大模型中,只有约 140 个大模型完成了生成式人工智能服务备案,备案通过率仅 45.9%。抛开其他因素不谈,不到 50% 的备案通过率一方面意味着我国生成式人工智能大模型合规审核的严格,另一方则意味着相关人工智能开发者与服务提供者的合规构建仍存在较大的提升空间。
在之前的文章中,飒姐团队已不止一次与大家就生成式人工智能大模型合规问题进行过分享。为进一步帮各位老友厘清合规工作所要关注的重点和难点,本次,飒姐团队深入“百模大战”的“战场”,对那些在这场“战役”中拔得头筹的佼佼者们进行了试用体验。并根据《网络安全法》《数据安全法》《个人信息保护法》以及《生成式人工智能服务管理办法》《互联网信息服务深度合成管理规定》《互联网信息服务算法推荐管理规定》《生成式人工智能服务安全基本要求(征求意见稿)》等法律规定,结合各产品的用户服务协议和隐私,整理出了现阶段颇具特色的几家热门大模型的优秀合规范例。今天,就让我们为这些在“百模大战”的“合规战役”中取得优胜的大模型做个盘点,看看他们各有什么过人之处



01

Kimi 智能助手:简洁但不简单的合规新秀



作为人工智能大语言模型研发领域炙手可热的新秀,月之暗面在 Kimi 大模型的合规构建上更加重视生成物知识产权、输入与输出数据、收集的用户信息等内容。并通过其《模型服务协议》与《用户隐私协议》的约款体现出来,对相关权利义务做了简洁而清晰的约定。

(一)对象二分的知识产权声明
月之暗面在《模型服务协议》中就用户使用 Kimi 可能产生的知识产权问题,与 Kimi 产品本身的知识产权问题进行了二分化的声明。前者更加注重对原作者权利的保护,后者则更更注重对竞争者的限制。
一方面,服务协议强调了用户“仅可以非商业的、个人研究学习的方式使用 Kimi 智能助手”,用户无权“以任何商业化方式使用 Kimi 智能助手及 Kimi 智能助手生成的内容”,并强调对原作者版权的保护,尊重原作者所作的版权声明与转载声明。言下之意,即用户用于 Kimi 训练和使用的数据,并不影响原作者在作品上的版权,Kimi 创作的生成物只能用于非商业化用途,符合《著作权法》第二十四条关于“合理使用”的规定。如果用户违反服务协议的约定,以商业化的方式使用了 Kimi 的生成物,那么,按照服务协议的免责声明,生成物的版权由用户自行维护并基于独立判断使用,造成的侵权或损失月之暗面不负责任。
另一方面,服务协议明确声明了月之暗面对 Kimi 智能助手本身享有的知识产权,强调“Kimi 智能助手及其程序、软件、信息、数据、开发文档及相关的元素、组件等内容均受中华人民共和国法律法规和相应的国际条约保护,由北京月之暗面科技有限公司及相关权利人享有知识产权。”未经北京月之暗面科技有限公司及相关权利人书面同意,不得将其用于开发竞争的产品或服务。避免他人将 Kimi 用于“套壳 AI”的研发。
(二)对于用户个人信息的保护
在 Kimi 的《模型服务协议》中,虽然明确提到了“用户提供、发布及在使用中形成的除个人信息外的非个人信息”的保护,但并未就获取的用户个人信息进行充分的说明。相关的内容,被放在了 Kimi 的《用户隐私协议》中,隐私协议就用户个人信息的收集、第三方 SDK 隐私协议的说明、用户对于所收集个人信息的管理和删除以及用户个人信息的保护进行了较为详尽的约定。然而,由于 Kimi 助手系对话式的大语言模型,用户可能提供个人信息的范围以及用于产生生成物的范围,均较难进行详尽列举。因此在隐私协议中也没有就获取用户个人信息的具体用途做更多细节的约定。
此外,在第三方 SDK 的隐私说明上,月之暗面与众第三方主体均以“SDK 自行采集”的信息处理方式,收集和处理所涉的用户个人信息。但在使用过程中,我们发现,Kimi 平台的《模型服务协议》与《用户隐私协议》均位于登录界面的下方,并通过 UI 提示用户在登陆前必须进行勾选。但用户可通过微信进行扫码进行直接登录,且在微信登陆时仅需要在跳转后进行确认授权,并未要求用户阅读或确认勾选上述内容。也即月之暗面在第三方的个人信息收集使用的提示说明义务上做了一定的保留,通过 Kimi 的隐私协议进行提示、说明,但并未对第三方平台跳转设置限制。
(三)用户的投诉、举报机制
根据《生成式人工智能服务管理暂行办法》第十五条的规定,生成式人工智能大模型服务提供者应当“建立健全投诉、举报机制,设置便捷的投诉、举报入口,公布处理流程和反馈时限,及时受理、处理公众投诉举报并反馈处理结果。”但我们在 Kimi 的《模型服务协议》与《用户隐私协议》中均未找到对用户相关权利的约定或说明。虽然两项协议中均留有与用户联络的邮箱,在 UI 设计上,也单独保留了意见反馈渠道。但再未作提示说明的情况下,能否易于用户理解,尚存有待优化的余地。



02
文心一言:经验丰富的互联网合规典范


百度在文心一言的合规构建上体现出了国内老牌互联网企业的经验老道,在其《文心一言用户协议》与《用户隐私政策》中,不仅对可能存在的合规风险进行了事无巨细地表述,同时采用加粗字体等方式就需要用户关注的重点,尽可能表现出自己对提示、说明义务的重视。
(一)对个人信息保护的特殊强调
文心一言的用户服务协议对于个人信息的保护格外重视,除在用户服务协议中有专章对此进行说明外,百度还专门制定了《文心一言用户个人信息保护规则》,该保护规则独立于《用户隐私协议》之外,充分体现了对于用户个人信息保护的重视。
在保护规则中,较为清晰地就对用户个人信息的收集、使用用途、保存与保护、用户对个人信息的选择权和删除权、用户对个人信息的补充更正权,以及对于未成年人敏感个人信息的特殊保护等进行了列举和说明。并采用易于用户理解的方式,介绍了其在使用过程中可能被收集的个人信息。此外,较为值得一提的是,在文心一言的上述保护规则中,对可能因为不可抗力而产生的个人信息保护规则的更新做了保留性的说明。对于可能会导致用户权利的实质减损的重大变更,官方负有对用户的通知义务,且将是否同意依照变更后的规则继续使用产品的选择权交给了用户,充分保障了个人信息主体的选择权,值得业界学习。
(二)用户输入、输出内容的授权
与其他开发者的大模型不同,百度在文心一言的用户服务协议中直接开宗明义地把“文心一言会收集和分析用户的输入和输出信息,以提高识别和响应能力,改进服务的智能性和内容质量。”用加黑字体写在了“服务介绍”的开头。直接明确其会将用户输入的信息作为训练数据,且将违法、违规的数据用于训练本身即是违反用户协议约定的违约行为。在确保其数据获取的合规性的前提下,也与后续详细的用户行为规范相呼应,确保了平台合规对相关责任的规避。
无独有偶,在文心一言的《用户隐私政策》中也对此进行了重申,明确文心一言会收集“用户使用文心一言时的人机交互对话信息、问答历史等信息。”同时告知用户,其采用了技术手段对个人信息进行必要的去标识化处理,并会在不透露用户个人信息且不违背相关法律法规的前提下,对用户提供的相关数据用于训练。
(三)较为全面的投诉、申诉机制
《文心一言用户协议》专章规定了“投诉、申诉处理”的内容,在用户认为文心一言服务涉及侵害其知识产权或其他权利;在使用文心一言服务过程中发现任何违法、虚假信息等行为;亦或认为百度不恰当地限制了其使用文心一言服务的能力等情况时,用户可以向提供的邮箱进行投诉、申诉。并给出了明确的投诉、申诉邮箱以及所需材料。同时,百度明确了对用户投诉和申诉的处理和反馈时间,为 5 个工作日,用户可通过发送的回执编号进行流程查询。
该规定在众多国产大模型中,是少有的明确体现《生成式人工智能服务管理暂行办法》要求,并设计了具体实施程序的优秀范例。



03
智谱清言 GLM:立足应用、服务用户


作为重视综合性应用的开源大模型,智谱清言的合规构建体现出鲜明的用户导向趋势。其《用户协议》以“智能体”为对象,详细规定了用户的权利和义务,并在生成物的知识产权归属等方面做出了较其他大模型有所区别的规定。
(一)生成物知识产权由用户决定
由于智谱清言 GLM 平台所提供服务的特性,用户不仅可以使用平台上已训练的模型生成需要的内容,也可以自行设计并训练客制化的“智能体”模型。因此,智谱清言的《用户协议》中对于知识产权的归属问题,赋予了用户较大的自主决定权。根据《用户协议》的约定,用户自行维护并独立判断基于智谱清言生成内容的版权,使用生成物产生的任何知识产权问题由用户自行处理。某种意义上,这种不做其他声明的规定已经相当于将生成物的知识产权归属于用户。
但同时,智谱清言也作了相应的免责声明,要求用户确保“创建智能体过程中使用的文件、图片、音视频、素材、链接、数据、命令、描述等不违反相关法律法规的规定和本协议的约定,不侵犯第三方的知识产权及其他合法权益。”只不过对于违法或违约创建的智能体及其生成的内容,本用户协议约定由用户承担全部责任。
(二)对用户输入内容与智能体的“打包”使用
由于智谱清言平台所提供的服务主要针对“智能体”模型,因此,在其《用户协议》中有着针对这种采取“打包”形式的生成物的专门规定。其采用加粗字体对用户进行提示,告知“智谱清言可能在进行匿名化处理后,使用您创建的智能体,您向智谱清言、智能体输入、上传的内容和智谱清言、智能体向您生成的内容可由智谱用于进一步的模型训练与优化。”作为一个以提供开源大模型客制化训练为主要服务的平台,智谱清言《用户协议》的该项内容较为具有特色,实际上,在其与用户关于大模型使用的约定中,处处透露着与用户共同开发的“开源精神”。
(三)对用户的合理提示
智谱清言的《用户协议》是少数专门就技术的“局限性”进行专门提示的用户服务协议,其使用了整个协议中最为醒目的大段加粗字体,就“由于提供服务本身存在的技术瓶颈”可能导致的生成物瑕疵、不合理以及可能引起用户不适等问题作了详尽的告知。同时明确说明了“智谱清言的输出不构成对用户的任何建议或决策,不保证其生成内容的真实性、完整性、准确性、及时性及实用性”,要求“用户需根据自己的实际情况做出独立判断”。
鉴于当前 AIGC 技术确实存在种种不成熟的问题,对于类似以开源开发或客制化应用为主要业务内容的大模型服务提供者,进行清晰地说明,使用户在使用平台服务前建立合理的预期,对于合规构建显然也有着相当程度的必要。



04
抖音“豆包”助手:另辟蹊径的 To C 合规“高手”


自从 2023 年 8 月,字节跳动将其旗下语音 AI 助手 Grace 更名为“豆包”之后,这款定位在 To C 赛道的大模型在发展与合规的策略上就与其他“同胞”有了一些微妙的差别。

(一)输入内容合规围绕语音功能
由于“豆包”助手主打语音对话功能,因而其隐私政策在授权方面更多围绕语音可能涉及的个人信息以及硬件音视频设备的权限获取。在其《隐私协议》中可以发现,就智能对话可能收集的用户输入信息、内容指令,以及用户操作过程中的行为信息、反馈信息等,“豆包”都做了更加明确具体的提示说明。同时,其多处采用链接跳转的方式,就“应用权限申请与使用情况说明”“智能对话使用须知”等内容进行了专门的提示。
同时,由于声音等信息并不一定能够达到《个人信息保护法》所规定的“可识别性”要求,因此,“豆包”的隐私政策中加粗提示了一条很特殊的非个人信息条款,即“如信息无法单独或结合其他信息识别到你的个人身份,其不属于法律意义上你的个人信息”,该条款其实是在其功能倾向的基础上简洁地向用户对收集个人信息的范围进行了限定说明。
(二)未成年人保护条款
由于字节跳动公司旗下主营产品在未成年人保护问题上的特色,其人工智能大模型产品在合规策略上也对此一以贯之。因而,“豆包”的用户服务协议有着最为具体的未成年人保护条款。其不仅像其他大模型服务提供者一样就未成年人作为敏感个人信息主体,在隐私政策等方面对未成年人的个人信息予以特殊保护;还针对未成年人对产品的使用,做了相应的保护性限制。除未满 18 周岁的未成年人需要获得监护人的同意,并在监护人的监护、指导下使用产品服务外,其还设置了明显具有公司旗下抖音等其他应用未成年人保护特色的健康上网倡议条款。要求未成年用户在合理范围内正确学习使用网络,避免沉迷虚拟的网络空间,养成良好上网习惯,并且在大模型服务提供者中少见地将《全国青少年网络文明公约》内容写进了用户服务协议中。



05
写在最后


诚然,在生成式人工智能大模型快速发展的当下,我们很难从技术或法律的角度给出大模型开发及服务应用合规的“最优解”。但从相关法律法规、国家标准、行业规范等方面出发,参照各家热门产品的用户服务协议与隐私政策等文件,我们亦可以一窥当前国产大模型合规的究竟。技术的发展永远会抛出新的挑战,产品合规构建也永远在路上,对于那一半尚未通过备案审核的大模型而言,学习成功者的经验,加强自身合规构建,已成为当前国内人工智能大模型研发的不二之路。

以上是今天的分享,感恩读者!



如果您身边有对新科技、数字经济感兴趣的朋友,欢迎转发给 Ta。

获取详细资讯,请联络飒姐团队

 sa.xiao@dentons.cn

 guangtong.gao@dentons.cn

飒姐工作微信:【 xiaosalawyer

飒姐工作电话:【 +86 171 8403 4530


精彩回顾





肖飒团队 | 某知名财富公司疑爆雷:高管涉刑如何应对?
肖飒团队 | C 罗遭索赔 70 亿,是谁让其“十年归零”?
肖飒团队 | CZ 被重罚,掀起币圈飓风的“蝴蝶”?
肖飒团队 | AI 生成图片著作权第一案,“人机大战”胜负揭晓!
肖飒团队 | 刑事指控 + 罚 43 亿,币圈最大案件靴子落地!
肖飒团队 | HOUNAX 暴雷:大陆居民在港追赃挽损攻略




【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

专栏文章
查看更多
数据请求中

推荐专栏

数据请求中

一起「遇见」未来

DOWNLOAD FORESIGHT NEWS APP

Download QR Code