跨越国界:AIGC 的域外监管政策与解读
2023-08-16 22:22
LegalDAO
2023-08-16 22:22
订阅此专栏
收藏此文章

Across Boundaries: AIGC's Extraterritorial Regulatory Policy and Interpretation


本文是 AIGC 系列文章的第三篇。承接第一篇[Crypto Story]-C4/5-Potential Legal Issues of AIGC(大致介绍 AIGC 的潜在法律问题),和第二篇[Crypto Story]-C4/5-AIGC 在中国法下的多维度法律风险全解析(立足于中国监管现状讨论 AIGC 在中国法下的多维度法律风险),本文将视角投向境外,对中国以外法域的 AI 监管政策进行分享和解读。


本期内容

1. AI Harms- 针对 Big Techs 的执法 / 司法行动

2. Overview- 全球性的立法浪潮

3. EU- 第一部综合性 AI 法律?

4. US- 真正的规则制定者?

5. Dilemma- 监管的下一步在哪里?

6. Conclusion- 跨越国界的治理



1

AI Harms – Enforcement/Judicial 

Actions against Big Techs


7 月 11 日,八位匿名人士向旧金山联邦法院提起诉讼,称谷歌未经授权从网站上抓取数据、训练其人工智能系统 Bard,侵犯了他们(在该集体诉讼中,他们代表数百万互联网用户和版权所有者)的隐私和财产权。他们的诉讼请求包括,让互联网用户有权选择拒绝谷歌的“非法数据收集”,且谷歌应删除现有数据或向其所有者支付“公平补偿”(合计可达 50 亿美元)。


这只是近来针对人工智能行业的提起的诸多民事诉讼案件之一。其他被诉公司包括 Meta、微软和 OpenAI,原告们指称这些big tech 滥用个人数据、受版权保护的书籍、视觉艺术和源代码来训练其系统。


谷歌在美国被起诉的 2 天后(7 月 13 日),其人工智能系统 Bard 终于在欧盟正式发布。此前,因欧盟的隐私监管机构要求,谷歌推迟了 Bard 在欧盟的落地,不得不根据“与专家、政策制定者和隐私监管机构合作”对欧盟版本的产品进行了调整。


(AI 为企业带来创造力的同时,也因其包含虚假或误导性信息、歧视、隐私问题等,引发了大量经济和声誉损失。图源:Unpacking the Proposed EU AI Act, Holistic AI)


面对 AI 所带来的争议,OpenAI 首席执行官萨姆 - 奥特曼(Sam Altman)在今年 5 月出席参议院的听证会中,明确要求美国政府对 AI 采取监管措施,例如建立人工智能系统的许可制度,或设立专门针对 AI 的监管机构。


If this technology goes wrong, it can go quite wrong


OpenAI CEO Sam Altman


2

Overview - Global Movement of Legislation


应对 AI,全球各地正在探寻着各种各样的监管路径。以欧盟和美国为典型,二者虽监管思路不同(一纵一横),但底层的基本监管原则相似(即,重点关注:准确性、安全性、非歧视性、透明度和问责制、可解释性以及数据隐私)。[1]


 欧盟



_

提出人工智能欧洲法律框架,以解决人工智能系统特有的基本权利和安全风险——人工智能法案(Artificial Intelligence Act,“AI Act”),该法案草稿正在审议中;

_

提出民事责任框架,使得责任规则适应数字时代和人工智能——人工智能责任规则(Liability Rules for Artificial Intelligence,“AILD”)、产品责任指令(Product Liability Directive,“PLD”),该等规则正在立法计划中;

_

修订部门制定的安全法例,如修订 Machinery Regulation 和 General Product Safety Directive。[2]

_

同时,若干现有法规在各自的适用范围内覆盖 AI 监管,如通用数据保护条例(General Data Protection Regulation,“GDPR”)适用于 AI 采集和使用个人数据等场景,金融工具市场指令及配套法规(Markets in Financial Instruments Directive and accompanying Regulation,“MiFID II”)适用于算法交易等场景,数字市场法案(Digital Markets Act,“DMA”)和数字服务法案(Digital Services Act,“DSA”)则以透明度为核心,对数字平台服务的提供者分别提出监管要求。


总体而言,欧盟的监管方法更偏向于集中协调和全面监管,不仅涵盖了更多的 AI 应用,也强调了更具约束力的规则。欧盟的监管模式常被形容为“垂直式 / 跨部门的立法(Horizontal / Cross-sector legislation)”。


美国



_

美国尚未正式通过专门解决人工智能危害的法案。但一系列与人工智能相关的联邦立法提案已经出现在了国会中[3],随着 ChatGPT 的风靡,新的提案也正在涌现。

_

白宫和各个联邦机构也在积极探索人工智能政策,并发布指导方针。其中国家标准技术研究所(National Institute of Standards and Technology,“NIST”)、国家电信和信息管理局(National Telecommunications and Information Administration,“NTIA”)和联邦贸易委员会(Federal Trade Commission,“FTC”)近期颇为活跃。

_

同时,美国各州正在针对人工智能积极立法,希望立足于下一次重大技术革命的前沿。已颁布的州层面立法包括:伊利诺伊州的人工智能视频面试法(Artificial Intelligence Video Interview Act),适用于所有雇主,并要求披露在伊利诺伊州职位申请人视频面试的过程中,使用人工智能工具分析的情况;纽约市的偏见审查法(Bias Audit Law,Local Law 144)对雇主在招聘和晋升中使用自动决策工具进行了规范;佛蒙特州的 H.B.410 号法案,设立了人工智能委员会。

_

此外,在诉讼文化盛行的美国,大大小小的民事诉讼(如前言所述),也将倒逼科技企业,主动寻求可以创造出合法、可靠 AI 的路径,包括联合起来制定行业标准。[4]


总体而言,美国的监管方法更侧重于通过适用现有的监管规则、调整现有政府机构的权力,以尝试处理人工智能问题;目前尚没有一个联邦政府层面的全面立法。当下的监管模式偏向于“轻监管(light-touch)”或者说“部门本位(sector-based)”。


3

EU – The World's First 

Comprehensive AI Law (?)


当地时间 6 月 14 日,欧洲议会高票通过了 AI Act 草案,尽管该草案的最终定稿和生效依然有些距离——下一步是欧洲议会、欧盟理事会和欧盟委员会之间的“三方谈判(Trilogue)”,但如果进展顺利,AI Act 可能会在今年年底前获得批准,并在 2026 年落地执行。


最新草案新增的第 1 条,即点明:AI Act 的目的是促进以人为本(human-centric)、值得信赖(trustworthy)的人工智能的应用,并在支持创新的同时,确保在欧盟高度保护健康、安全、基本权利、民主与法治以及环境,使其免受人工智能系统的有害影响。


AI Act 中值得关注的要点包括:1)风险分级框架;2)适用对象与关键定义(AI、GPAI 等);3)监管沙盒(Sandbox)与处罚


 风险分级框架


AI Act 的核心为“风险分级”,即,通过对特定人工智能实例的社会风险的评估和分级,决定如何对其进行监管。


(图源:A summary presentation on the act by the European Commission, Lucilla SIOLI)


在金字塔顶层是有着“不可接受的风险”的 AI 应用,将被完全禁止。


底层则是“风险很小或没有风险”的 AI 应用,AI Act 对此将不施加任何监管要求。这主要是那些未涉及到个人权益的应用。


最困难的是理解和定义中间两层——“高风险”和“有限风险”(图中对应“具有特定透明度义务的 AI”)的应用。


针对高风险的人工智能系统,AI Act 施加了较严苛的合规要求,包括:


1)事前评估:即在欧盟数据库中进行登记。受欧盟现行产品安全立法约束的任何 AI 产品和服务(如医疗设备)将适用现行的第三方符合性框架;其他未受欧盟法律约束的 AI 系统提供者则必须进行自我评估;用于生物特征识别的高风险 AI 系统则需要由“指定机构”进行合规评估。


2)风险管理、测试、技术稳健性、数据训练和数据治理、透明度、人工监督和网络安全方面的合规。欧盟境外的提供商需在欧盟指定一名授权代表,以确保合规要求的执行。


风险有限的人工智能系统,则应符合最低限度的透明度要求,以便用户做出知情决定。用户可以决定是否要继续使用该应用,并应知悉其与人工智能正在互动。


不可接受的风险

不可接受风险的人工智能系统包括:


· 使用超越个人意识的潜意识技术、或有目的的操纵或欺骗技术,对人造成重大伤害的人工智能系统;


· 利用特定弱势群体(身体或精神残疾),对人造成重大伤害的人工智能系统;


· 社会评分(social scoring),即根据行为、社会经济地位或个人特征对人进行分类;


· 公众可访问空间下的实时远程生物识别系统(“real-time” remote biometric identification system)。


这一清单仍存争议。最新通过的折衷修改稿对此清单进行了扩展,例如,其全面禁止在公共空间使用实时远程生物识别系统,并删除了先前版本中的除外情形。此外,本次草稿还新增了对在犯罪风险评估中使用 AI 系统的禁止。但在接下来的三方谈判中,此清单很可能还会被进一步修订。


高风险

对安全或基本权利有负面影响的人工智能系统将被视为高风险。具体包括两类:


1)在欧盟产品安全立法(General Product Safety Directive)规制范围内的产品中使用的人工智能系统,包括玩具、航空、汽车、医疗设备和电梯。


2)八个特定领域的人工智能系统:


自然人的生物识别和分类,关键基础设施的管理和运行,教育和职业培训,就业、工人管理和获得自营职业的机会,获取和享受基本私人服务、公共服务和福利,执法,移民、庇护和边境管制管理,司法行政和民主程序管理


以上八个领域仅为概述,具体情形在 AI Act 的附件 III 中有所列示。本次折衷修改稿中值得关注的新增情形包括:用于影响选民和选举结果的人工智能系统,以及社交媒体平台(拥有超过 4500 万用户)使用的算法推荐系统。


有限风险

与人类交互的(例如聊天机器人)、情感识别系统、生物特征分类系统以及生成或处理图像、音频或视频内人工智能系统(例如深度伪造 /deepfake)等“有限风险”的 AI 系统将受到一些透明度义务的约束。


低风险

低风险系统包括垃圾邮件过滤器或支持人工智能的视频游戏,这类 AI 系统可以在欧盟开发和使用,无需遵守任何额外的法律义务。



适用对象与关键定义


适用对象

AI Act 主要适用于:在欧盟境内设立的人工智能系统提供商,或将人工智能系统投放欧盟市场或在欧盟境内使用的第三国提供商,以及设立于或位于欧盟境内的人工智能系统的部署者(deployer)。


为了防止规避,该规定还适用于设立于或位于第三国,但根据国际公法适用欧盟成员国法律、或打算在欧盟境内使用输出数据的人工智能系统提供商和部署者,包括:


1)将第 5 条所述人工智能系统(即不可接受的风险的 AI 系统)投放到欧盟境外市场或投入使用的提供商,而此类系统的提供商或经销商位于欧盟境内;


2)人工智能系统的进口商和分销商以及人工智能系统提供商的授权代表,只要这些进口商、分销商或授权代表在欧盟内设有机构或位于欧盟内;


3)位于欧盟境内的受影响人员(即,受人工智能系统约束或以其他方式受其影响的任何自然人或群体),其健康、安全或基本权利因使用在欧盟境内投放市场或投入使用的人工智能系统而受到不利影响。


与上一版草案相比,最新草案将适用对象的范围作了进一步明确(将“用户(user)”这一定义表述改为“部署者(deployer)”,但实质内涵不变),更加契合 AI 产业链的实践理解。


AI 产业链包括三个主要角色:通用提供商、定制 AI 部署者和最终用户。


1)通用提供商:通用提供商提供通用的 AI 计算软件,这些软件可以被不同的定制 AI 部署者使用。他们开发和提供的软件具有广泛的适用性,可以满足不同行业和应用领域的需求。通用提供商的软件通常是基于先进的算法和模型构建的,可以为定制 AI 部署者提供一个强大的基础。


2)定制 AI 部署者:定制 AI 部署者是在通用 AI 软件的基础上添加独特理解的实体。他们根据特定行业、应用或客户需求,对通用 AI 软件进行定制和优化。这可能包括对算法的调整、数据的训练和模型的优化,以确保 AI 系统能够更好地适应特定的使用场景。定制 AI 部署者的目标是提供具有差异化和增值特性的 AI 应用。


3)最终用户:最终用户是购买和使用定制 AI 部署者开发的 AI 应用的实体。他们可以是企业、组织或个人用户。最终用户从定制 AI 部署者那里获得 AI 应用,这些应用可以帮助他们解决特定的问题、提高效率或创造商业价值。最终用户在使用 AI 应用的过程中,可以从 AI 技术的创新和发展中获益。


从产业链的角度,EU AI Act 的主要适用对象是定制 AI 部署者。[5]但最新草案的修订,将通用提供商也纳入了监管范围(见后文 GPAI 部分)。


关键定义:AI

根据最新草案第 3(1) 条规定,“人工智能系统”指:

“以机器为基础的系统,可在不同程度上自主运行,并能为明确或隐含的目标生成影响物理或虚拟环境的输出,如预测、建议或决策;/

a machine-based system that is designed to operate with varying levels of autonomy and that can, for explicit or implicit objectives, generate outputs such as predictions, recommendations, or decisions, that influence physical or virtual environments;”


自 2021 年首次推出 AI Act 草案一来,AI 系统的定义已经较大幅度的修改,并仍饱受争议。当前最新草案中的定义与经济合作及发展组织(OECD)关于人工智能理事会的建议(Recommendation of the Council on Artificial Intelligence)中的非常接近,这种定义有助于构建一个全球统一的监管理解和架构。


关于这一定义,广义定义的支持者认为,监管应该更加综合和灵活,以适应不断变化的人工智能技术。在“风险分级框架”下,监管机构应该采取一种原则性的方法,关注 AI 系统的潜在风险和影响,而不仅仅关注特定的技术或应用。


狭义定义的支持者认为,监管应该更加具体和明确,为科技公司们提供更明确的指导。过于宽泛的定义可能导致监管的不确定性和困难,可能对创新和商业发展产生负面影响。


关键定义:GPAI 等:

通用人工智能系统(general purpose artificial intelligence system,“GPAI”)是指:

“一种可用于并适用于广泛的应用领域,但未因此被有意和专门设计的人工智能系统;/

an AI system that can be used in and adapted to a wide range of applications for which it was not intentionally and specifically designed;”


生成式 AI(generative AI)可被理解为 GPAI 的一种,指:

“被特别设定的、以不同水准的自主性进行内容生成的 AI 系统中的基础模型,譬如复杂文本、图像、音频或视频等内容 /

foundation models used in AI systems specifically intended to generate, with varying levels of autonomy, content such as complex text, images, audio, or video”


基础模型(foundation model)则指:

“一种依托大量数据规模化训练的 AI 系统模型,为生成结果之通用性而设计,并能适应广泛的特定任务 /

an AI system model that is trained on broad data at scale, is designed for generality of output, and can be adapted to a wide range of distinctive tasks;”


最新草案加强了对 GPAI 的透明度要求,包括:披露内容是由人工智能生成的、设计模型以防止生成非法内容、记录和公开用于训练的版权数据摘要。


基本可以理解为,该等概念和监管的引入正是为了应对 GPT 这类基础应用类的大模型。


由于基础模型通用、可以适应广泛任务,不应被当然视为“高风险”类别的 AI;但同时,基础模型具备更大的可解释性,相应地,其在模型类别和自我治理方面的演变方式具有显著不确定性,因此欧盟立法者认为,有必要阐明相关提供者的法律地位。


这也意味着,当前的草案开始关注人工智能技术的特定属性和功能,而不是基于其应用场景和风险程度,某种程度上已经偏离了最初的“风险分级框架”。[6]


监管沙盒(Sandbox)与处罚


Sandbox

沙盒机制是一种创新监管方法,通过在一定的范围和条件下,给予被监管者 / 科技公司一定的宽容度和灵活性,以便他们能够测试新的想法和技术,而不必立即遵守所有的监管要求。


一方面,它为科技公司提供了一个测试和试验的空间,以便他们能够与监管机构进行积极的互动和沟通,了解监管的要点和标准。


另一方面,通过沙盒机制,监管机构可以从科技公司中学习,了解新技术的实际应用和潜在影响,从而更好地了解如何监管这些新兴领域。


沙盒机制的主要目标是促进创新和监管的协调发展。


处罚:

折衷修改稿进一步提高了违法处罚数额,将最高罚款修改为 4000 万欧元或上一财年全球年营业额的 7%。这一标准已高于 GDPR 所规定的罚款标准(最高可处以全球收入的 4%或 2000 万欧元罚款)。



4

US – The Real “Rule-Maker”?


监管行动


尽管常常被评价为“整体立法缺失”或“立法行动缓慢”,但美国可能正在以一个完全不同于欧盟或中国的路径,通过鼓励 AI 技术的发展、及与科技行业的密切合作,实现更具效率(或更具影响力)的监管。


一个重要节点是,7 月 21 日,拜登政府宣布已与七家人工智能公司达成协议,并获得这些公司“帮助人工智能技术走向安全、可靠、透明”的自愿承诺。这七家公司分别是:Amazon、Anthropic、Google、Inflection、Meta、Microsoft 和 OpenAI。承诺内容包括:


_

在向公众推出产品之前确保其安全:在发布人工智能系统之前,对其进行内部和外部安全测试,以防范关键的人工智能风险。与行业和公众分享人工智能系统的风险管理实践。

_

构建将安全为先的系统:在网络安全和内部威胁防护措施的建设上投入资金,以保护专有和未发布的模型权重。建立人工智能系统漏洞的第三方发现和报告制度。

_

赢得公众的信任:强化标注机制,确保用户知悉内容由人工智能系统生成。公开人工智能系统的功能、局限性和适用领域。研究人工智能可能带来的社会风险,同时致力于对人类有利的人工智能系统开发(例如癌症预防、气候变化缓解)。


今年 6 月,美国国家电信和信息管理局(NTIA)就人工智能问责制政策征求意见(AI Accountability Policy Request for Comment),旨在征求公众对人工智能风险相关政策的反馈。NTIA 计划根据收到的意见,向白宫提出关于人工智能治理政策的建议。官网显示,NTIA 已收到超过 1400 条公众反馈意见。


几乎与此同时(6 月 20 日),一个由民主党和共和党议员共同组成的小组向美国国会提出了“关于建立人工智能委员会的法案”。根据目前的文本,该专门委员会将是一个由立法者、行业和民间社会成员组成的两党团体。该委员会的任务是考虑人工智能监管如何既(1)减轻人工智能的风险和危害,又(2)保护美国“在人工智能创新方面的领导地位以及这种创新所带来的机遇”。


以上种种监管动作表明,美国政府正在积极地寻求平衡的监管方式。与欧盟不同,美国更多基于对人工智能产业扶持发展的考虑,颁布指引性(而非强制性)的政策。


 Light Touch


白宫发布的人工智能权利法案蓝图:让自动化系统为美国人民服务(Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People,AI Bill of Rights),以及 NIST 推出的人工智能风险管理框架(Artificial Intelligence Risk Management Framework,AI RMF 1.0)正是美国政府对人工智能采取轻监管方法(light-touch)的象征。


AI Bill of Rights:

AI Bill of Rights 作为一份指南,不具有强制约束力。其提出了指导人工智能和自动化系统设计、使用和部署的 5 项原则,并以配套的从原则到实践(From Principle to Practice)支持框架的实施:


1. 安全有效的系统:

· 用户应免受不安全或无效系统的影响

· 系统的设计应能够防止可预见的损害

· 在部署系统之前应测试、识别和减轻风险

· 应持续监控以确保系统安全有效

· 应尽可能对系统进行独立评估和审计并公开


2. 算法歧视保护:

· 用户不应该面临算法的歧视,系统应该以公平的方式使用和设计

· 设计人员、开发人员和部署人员应主动、持续地考虑自动化系统可能如何导致歧视性结果或待遇

· 应不断测试并减轻不同的影响或歧视性结果

· 应进行独立评估和审计并尽可能公开


3. 数据隐私:

· 用户应该被提供内置保护措施,以免数据被滥用,并且应该有权决定如何使用其数据

· 算法系统应该具有内置的保护措施,防止恶意使用数据

· 数据的收集、传输、使用、访问和存储应获得用户同意,且同意请求应简短、清晰

· 持续监控技术应适当并仅限于实现合法目的所必需的范围

· 持续监控技术不应用于健康、工作、教育或金融等敏感环境


4. 通知和说明:

· 用户应该知道正在使用自动化系统,并了解它如何以及为何会产生影响用户的结果

· 设计人员、开发人员和部署人员应提供简单易读的文档,介绍系统功能、如何使用自动化、谁负责系统以及系统结果

· 通知应是最新的,并且在系统发生任何重大更改后应发出附加通知

· 通知应尽可能公开发布


5. 人工替代、审议和回退:

· 用户应该能够在适当的情况下选择退出人工智能系统,并能够联系到能够快速考虑和解决所遇到的问题的人

· 在适当的情况下,应该有一个选项可以选择不使用人工智能,而选择人工替代系统

· 在自动化系统失败、导致错误或对输出提出上诉时,应当能够通过回退和升级(fallback & escalation)流程,获得人工审议和补救(human consideration and remedy)

· 在刑事司法、就业、教育和健康等敏感环境中使用的自动化决策,应受到额外的监督,并且与系统交互的人员应接受适当的培训

· 应尽可能提供公开的文件,详细说明人工治理和监督流程、其结果和有效性


AI RMF 1.0:

尽管 AI RMF 1.0 是由国家标准与技术研究院(NIST)这一联邦机构发布的,但它是在国会特别授权的基础上制定的,一定程度上反映了国会的态度。AI RMF 1.0 全面收集了适用于人工智能应用的风险管理实践,旨在汇集专业知识并提供指导,但同样并不具备强制性。NIST 强调了 AI RMF 1.0 的自愿性质,甚至鼓励应用者根据自身需求选择性地使用框架的部分内容,并进行相应的调整。[7]


但该框架有可能成为行业内的实践标杆。例如,NIST 先前发布的提高关键基础设施网络安全框架(Framework for Improving Critical Infrastructure Cybersecurity),就已被大多数美国公司和美国以外的许多公司广泛使用,并被其他几个国家作为范例。


5

Dilemma - What is the Next?


公众利益保护和技术创新发展之间的平衡

这可能是一个老生常谈的话题。过度的监管可能会阻碍创新,而不足的监管可能会导致公众利益受损。


多头监管

特别是在美国的语境下,当前不同的政府机构分别从不同的角度进行监管,这可能导致监管的不一致性和混乱。同时,正如 Harvard Business Review 的评论文章所指出,许多拟议的法规需要国会赋予这些机构更多的法律权力,这在美国当前的政治环境下似乎不大可能实现。[8]


政府专业人才不足

政府在吸引和保留专业技术人才方面面临挑战。这不仅限于理解和应对当前的 AI 技术(例如对大语言模型进行定义),也包括预见和应对未来可能出现的风险和挑战。


去全球化时代下的全球化威胁

一个稍显宏大的议题是:AI 的影响和威胁面向全人类整体。它所可能带来的失业浪潮、对文化和叙事方式的解构、对人类决策和情感的操纵、甚至被作为战争机器而利用等全球性问题,并非某一个国家或监管机构或法律可以解决。


道德和伦理问题

AI 技术引发了一系列复杂的道德和伦理问题,例如,AI 的决策应该如何公正、公平、去除偏见,AI 引发的损害责任由何主体承担等。这些问题的解决可能还需要深入的哲学和伦理学讨论。


6

Conclusion - Across Boundaries


本文所探讨的诸多政策,展示了全球监管机构在保护隐私、确保公平和推动创新之间如何努力寻求平衡。


然而,人工智能的国际治理并非易事,它需要国际组织、各国政府和科技行业的跨国界的共同举措。没有任何单一的管理机构能够为人工智能的所有挑战提供全面的解决方案。


鉴于目前大部分政策仍处在审议和讨论阶段,本文只是对监管要点和原则进行了概括性的解读。我们将持续关注人工智能领域的发展,并期待未来的监管政策如何落地和实施。


参考

[1] The EU and U.S. diverge on AI regulation: A transatlantic comparison and steps to alignment, Alex Engler

[2] A European approach to artificial intelligence, European Commission

[3] Federal AI Legislation: An Analysis of Proposals from the 117th Congress Relevant to Generative AI tools, Lenhat, A., Institute for Data, Democracy & Politics

[4] US won't follow in EU's footsteps with AI regulation, Makenzie Holland

[5] The European Approach to Regulating Artificial Intelligence, CSIS

[6] Unpacking the Proposed EU AI Act, Holistic AI

[7] Reconciling the U.S. Approach to AI, Carnegie Endowment for International Peace

[8] Who Is Going to Regulate AI?, Blair Levin and Larry Downes


其他宝宝们:


《律眼世情》是我们从 2020 年 2 月疫情开始时开设的法律类公众号,陪伴各位一起走过了魔幻的 3 年,我们相信读书、观世情,笔耕不辍,共同成长。


《枫人院》是一档带着 WAGMI 精神的法律人聊天类节目,用声音践行从 FOMO 到 KOMO 的每一天,通过对谈和身边的好友一起借假修真。目前在小宇宙播客平台开设。


《国枫基金月刊》《web3 专栏》是我们定期发出的月报,捕捉当月 web3 的标志性投融资事件、投资机构动向、热点事件以及专栏文章。




欢迎加入 LegalDAO👏

您可以在这些地方查看我们更多的信息:

官网地址:https://www.legal-dao.org/

官方 Twitter:@Legal_DAO @LegalDAO_CN

Linkedin: https://www.linkedin.com/company/legaldao/

TG LegalNOW OG Group:https://t.me/+OvJ-0wMg8ug1ODNh

论坛:https://bbs.legal-dao.org/

Mirror:https://mirror.xyz/0x4546D37A3274D87f543bAE095A75BaE40820BD89

Discord:https://discord.gg/gDujAsuy

Medium:https://medium.com/

ForesightNews:https://foresightnews.pro/column/detail/467

Github:https://github.com/Legal-DAO

【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

LegalDAO
数据请求中
查看更多

推荐专栏

数据请求中
在 App 打开