ChatGPT的法律和道德伦理挑战
全文约10000字,预计阅读40分钟。
作者按:
从前作为埃森哲亚太区法律部合规、运营、法规与道德规范主管,公司所有与A(AI,人工智能)、B(Blockchain,区块链)、C(Cloud Computing,云计算)、D(Digital offerings and services,大数据)有关的技术或服务开发,都必须经过我们合规部门的合规性审查确认。长期处于科技审查的前沿位置让我对高新技术领域的发展始终保持关注。ChatGPT的上线引发了人们对于AI技术的新一轮讨论热潮,不同学者对其进行了不同纬度的探讨。作为生成式AI的一种,ChatGPT及其产出成果AIGC(AI Generated Content,利用人工智能技术生成的内容)亦引起了我的注意。基于先前的工作经验,并结合各界对于ChatGPT的最新观点,我梳理出此文,希望能与诸位读者一同分享学习ChatGPT存在的法律与道德伦理挑战,也希望诸位在阅读时保持批判之心,其相关社会风险与法律挑战尚未存在定论,我们应积极关注立法与实践之间的界限与差距,留意相关法律法规的立改废,积极以热点话题为切入点对此进行反思与总结。
若用一张表格呈现本文讨论的ChatGPT或类ChatGPT生成式人工智能带来的现实挑战,将如下图所示:
|
涉及 问题 |
具体 方面 |
对法律 的挑战 |
竞争和垄 断问题 |
可能会强化科技巨头在市场上的垄断 |
平台垄断问题 |
||
用户数据垄断 |
||
知识产权 问题 |
训练材料的知识剽窃 |
|
AIGC的知识产权定位问题 |
||
版权规则受到冲击 |
||
网络安全 问题 |
遭受黑客攻击 |
|
被用于编写恶意软件代码 |
||
数据跨境安全问题 |
||
隐私问题 |
原始数据有被恢复风险 |
|
真实信息被篡改风险 |
||
“知情同意”制度被架空 |
||
数据挖掘不受限 |
||
不重视对用户资料的保护 |
||
公共治理 问题 |
“信息孤岛” |
|
“数字鸿沟” |
||
虚假信息误导 |
||
伪造资料进行犯罪 |
||
对社会 的挑战 |
失业问题 |
生成式AI可能替代中高层白领 |
收入分配 和不平等 问题 |
生成式AI的崛起会在劳动力市场上产生显著的技术偏向性分配 |
|
大幅提升资本的收益率 |
||
道德和伦 理问题 |
歧视因素 |
|
用户诱导下的不当言论 |
||
学术伦理规范 |
||
社会信任问题 |
||
算法权力问题:意识形态渗透 |
在大数据时代,人工智能在各个工作领域均得到了广泛运用与关注。ChatGPT于2022年11月首次推出,上线5天后已有100万用户,上线两个月后已有上亿用户,成为史上用户数量增长最快的应用¹。在其快速爆红的同时,关于ChatGPT利弊的讨论也在全球学术与实操领域掀起了热潮。本文将对ChatGPT进行简要介绍,并基于ChatGPT目前的运用状况分析其对法律与社会带来的挑战,最后提供对其进行法律规制的相关建议。
一、什么是ChatGPT?
生成型预训练变换模型(Chat Generative Pre-trained Transformer,ChatGPT),是OpenAI开发的人工智能聊天机器人程序。不过,与Siri这样的简单语音助手不同,ChatGPT在处理自然语言交互方面的能力得到了显著提升。目前免费使用的ChatGPT是GPT-3.5的微调版本,而GPT-3.5可以根据上下文和语境产生高质量的文本回答,并通过使用人类反馈强化学习(Reinforcement Learning from Human Feedback,RLHF)对对话进行了优化。具体来说,就是研究人员从 GPT-3. 5中抽取一部分,用人力标注进行训练,对于模型生成的各种结果,都进行人工打分。这样,就可以训练出一个可以对人类偏好进行识别的反馈模型(Reward Model)。接下来,再让反馈模型与原模型进行对抗强化训练,对原模型中不当的输出结果不断进行纠正²,从而不断对自身进行不断完善。
从本质上说,ChatGPT实际上是一种“大型语言模型”(Large Language Model,LLM)或“大型生成人工智能模型”(Large Generative AI Models ,LGAIMs),是自然语言处理机器学习模型,在分类上属于生成式AI(Generative AI),而GPT模型的具体实现在于AI预先对既有文本语料进行无监督地自主学习训练,包括文本语法、语义、惯用法和上下文信息等内容,再借助 Transformer 模型构建高度类似人类表达逻辑和方式的语言算法模型³。
目前,ChatGPT 接收了大量来自互联网的文本汇编,并接受了与OpenAI雇用的人工承包商进行实时对话(主要运用语言是英语)的训练,它学习模仿人类写作的语法和结构,并反映其常用的短语。到目前为止,ChatGPT最常见的用途是与用户进行对话,根据其问题或指示在许多知识领域给出详细和清晰的回答或为用户撰写文章。
图为笔者让ChatGPT对自己进行的描述,其反应速度与文本质量可以说十分出色
二、ChatGPT带来的挑战
正如前文所述,ChatGPT的出现就像生成式AI的“潘多拉魔盒”被打开,其运用在给人们带来惊喜的同时,也引发了学术界、政府与企业对于其运用的一系列担忧甚至恐慌,这其中尤以其带来的法律挑战与伦理道德挑战为首,本文接下来将对此进行分析与讨论。
(一)ChatGPT带来的法律挑战
1.竞争和垄断问题
ChatGPT所属公司OpenAI最初由Sam Altman (其现任首席执行官)和Elon Musk于 2015年12月以非营利组织的形式共同创立,三年后,Elon Musk在对该公司控制权和发展方向发生争议后与其断绝关系。但微软在2019年向这家人工智能初创公司投资了 10 亿美元,并在今年1月公布了对其进行数十亿美元的新投资,宣布将ChatGPT的基础技术整合到其搜索引擎Bing和其他产品中。今年3月,OpenAI 表示将不再开源其系统的技术细节,正如它最初在其创始原则中所述,以保持其竞争优势。⁴可见,AI相关的高新技术投资在当前正是科技巨头的高度关注点,很多生成式 AI 模型的研发都是由巨头企业和其所投资的新创企业合作开发的。实际上,ChatGPT的上线也是迫于其同行竞争对手“Stability AI”上线的压力而提前提上了日程,而ChatGPT上线后引发的热潮更是吸引更多科技巨头公司将投资目光瞄准“生成式AI”并争先抢跑入局,企图抢占风口。2023年2月,Google推出类似于ChatGPT的对话人工智能服务Bard,百度也确认其开发的类ChatGPT聊天机器人项目名字确定为“文心一言”,英文名为ERNIE Bot。
但由此也可见,在以ChatGPT为代表的人工智能投资领域,科技巨头占据了大部分话语权,整个 AI市场其实只是少数几个科技巨头的舞台。AI发展的三大要素是数据、算法、算力,而以微软、谷歌为首的几大科技巨头由于其承载的大量用户数据、丰富的科技开发经营与先进的大型计算机天然地在AI研发领域享有优先支配地位,而众多科技初创企业面对该风口,要么由于资金与技术的局限对训练模型的高成本门槛望而却步,要么由于成果表现优异被科技巨头以非控股的方式进行了实际控制,这一局面最终将造成商业排除(Commercial Exclusion),也即科技巨头公司通过利用自身的技术、资金和人才优势,制定较高的技术标准,而小公司则由于自身能力的缺失,往往无法达到相应的标准,从而达到巨头公司排除潜在的竞争对手的目的。这将最终使得市场出现马太效应——强者越强,弱者越弱。⁵相关监管部门如何识别并惩处这类新形式的垄断也是一个巨大的挑战。另外,由于在研发方面的垄断,未来由于平台用户的集中使用,在AI市场也可能出现相关科技巨头对于用户数据的垄断。
2. 知识产权保护问题
根据ChatGPT的训练模型,其输出的文本并非只是对其收集的信息进行原封不动地转述,而是通过对相关文字进行重新整合而形成一份新的回答,但实质上这种“创造性”仍然只是对其学习素材进行的重新组合,而这种整合是否构成对其训练模型相关资料的知识剽窃、涉及了谁的著作权、其权利来源、权利主体、著作权的复制权使用权等等是否合理合规、是否涉及抄袭,目前这些问题还都没办法做出准确判断。另一方面,就算法引用受保护文本数据行为的合法性而言,目前世界各国态度不一,并不能统一适用部分国家“合理使用”的法定抗辩事由。⁶这也是生成式AI的产出成果,也即AIGC(AI Generated Content,利用人工智能技术生成的内容)面临的普遍问题。
另一方面,AIGC本身是否能够获得知识产权保护也一直是业内讨论的焦点,且当前并未得出定论。2019年国际保护知识产权协会(International Association for the Protection of Intellectual Property , AIPPI)发布《人工智能生成物的版权问题决议》,认为人工智能生成物在其生成过程中有人类干预,且该生成物符合受保护作品应满足的其他条件情况下,能够获得保护,而生成过程无人类干预的人工智能生成物则无法获得版权保护。对于ChatGPT以及类ChatGPT的生成性AI而言,其自动生成文本的过程证明其已经具有了一定的创作能力,具有生成法定“作品”的可能性,其成果能否受到法律保护、输出了相似文本后如何处理版权争议,当前均未有一个官方界定。
相关案例:2019年“腾讯诉上海盈讯公司著作权侵权案”
2018年8月20日,原告深圳腾讯计算机系统有限公司在腾讯证券网首次发表标题为《午评:沪指小幅上涨0.11%报2671.93点通信运营、石油开采等板块领涨》的文章(以下简称“涉案文章”),该内容注明由腾讯机器人Dreamwriter自动撰写。而原告发现被告在未经原告许可的情况下复制了原告涉案文章,并在被告运营的“网贷之家”网站通过信息网络向公众传播。
法院认为,独创性是判断涉案文章是否构成文字作品的关键。法院从涉案文章是否可区别于已有作品;是否符合最低程度的创造性;其生成过程是否体现了创作者的个性化选择、判断等因素这几方面进行了分析,认为原告主创团队在数据输入、触发条件设定、模板和语料风格上的安排与选择也是与涉案文章的表现形式有关的智力活动,而非仅仅将范围限制在Dreamwriter软件的自动运行过程上。最终认定涉案文章属于受著作权保护的作品。
3. 网络安全问题
目前,ChatGPT仍需通过网页使用,尽管其具备的高度智能化能够抵御大部分针对AI进行的投毒攻击、闪避攻击、推理攻击、模型提取等攻击,但若其训练数据库遭到入侵,就很可能引发“数据污染”、“数据窃取”以及“数据攻击”等安全隐患。以数据窃取为例,若攻击者利用ChatGPT算法模型的参数、中间数据结果或模型预测结果来恢复训练数据中的重要信息,就能达到窃取训练数据的目的。
此外,ChatGPT作为语言模型,拥有超强的代码编程能力,虽然基于伦理规制其无法直接编写出用于黑客攻击的代码,也无法超越经验老道的真人黑客,但不法分子仍能通过误导性提问让ChatGPT生成能够被用于破解网站或密码的代码文本。这能够大幅降低黑客入侵的攻击成本,也将提高黑客的入侵效率。随着技术的迭代升级,下一代 ChatGPT 可能让“网络小白”变身“资深黑客”。不法分子可能利用 ChatGPT 快速编写邮件的能力,例如,批量撰写“钓鱼”邮件,使普通人更难识别网络诈骗。⁷
在数据安全方面,若用户与生成型人工智能模型的海量交互数据如果是跨境产生的,则会引发数据跨境安全问题。生成型AI需要海量算力,而面向一国提供生成型AI的服务器却可能位于世界各地,这与现有的数据本地化存储、保障本土数据安全的数据处理方案存在着根本冲突。
4. 隐私权保护问题
根据Open AI公布的信息,ChatGPT只提供云服务和应用程序接口(Application Programming Interface ,API),其训练与测试过程均在美国服务器上部署,训练过程及测试过程均会收集使用者的信息,并记录使用者的反馈及使用习惯,这存在严重的信息泄露与用户隐私保护风险。⁸这一风险显著体现于其对用户知情同意权的侵犯。知情同意权广泛见于各国的数据保护规定之中。《个人信息保护法》规定第十七条规定,企业“应当以显著方式、清晰易懂的语言真实、准确、完整地”向用户征求同意,征求同意的内容与《规范》第4条c款相似,都是指“向个人信息主体明示个人信息处理目的、方式、范围等规则。”但是《个人信息保护法》进一步要求,企业应当向用户宣示“个人行使本法规定权利的方式和程序”。欧盟《通用数据保护条例》(General Data Protection Regulation,下文简称GDPR)第4(11)和第6(1)条分别规定了同意原则及其例外情况。而以ChatGPT为代表的人工智能对隐私权的挑战则集中体现在“获得同意的可能性”之中。ChatGPT的训练模型说明用户与其进行的对话将被存储用于改进和无监督高强度学习中,但在对话过程中其未明确向用户说明并得到其授权同意,此外,由于ChatGPT的与用户的对话形式是连续且频繁的,在对话过程中反复向用户请求授权也是不太现实的行为。另外,知情是同意的前提,随着人工智能的快速发展,非专业人士几乎很难理解数据采集或者使用背后的含义和可能造成的后果,很少有人会真的关心那些“同意”按钮背后极为冗长且专业的说明。⁹在知情同意制度被架空与训练模型独立运转的情况下,ChatGPT将无限制地对互联网及用户数据进行挖掘,并由此侵犯公民的对于个人信息的“限制处理权”;且OpenAI虽承诺ChatGPT会从其使用的记录中删除所有个人身份信息,但并未说明如何删除,而这可能进一步构成对用户“被遗忘权”的侵犯。此外,ChatGPT在与其他用户进行对话的过程中,极有可能基于用户要求引用其数据库中保存的相关用户资料,且根据最新发布的ChatGPT-4的介绍,Open AI将引入相关插件以便获取最新互联网数据为用户服务,这终将造成另一种形式的用户信息泄露乃至商业秘密泄露。
基于此,公众对ChatGPT侵犯隐私的担忧已经显露了冰山一角。2023年3月31日,意大利隐私保护监管机构认为OpenAI 使用 ChatGPT 对话作为训练数据可能违反了欧洲的通用数据保护条例,因此封锁了ChatGPT,而意大利政府以涉嫌侵犯隐私为由,宣布禁止使用ChatGPT,并展开了对OpenAI的调查。至此,ChatGPT已在意大利下架,意大利成为第一个禁止使用ChatGPT的西方国家。
除此之外,尽管新近的生成式 AI 产品大多已经对输出的内容进行了加密和加噪处理,但最近的一项研究表明,即使在这样的条件下,人们依然可以对原始的数据进行恢复。因此,对于以Open AI为首的公司而言,即使在隐私条款中强调了“将以匿名或去识别化的形式维护和使用去识别化信息,不会尝试重新识别信息”,其保护用户原始数据的义务仍然任重道远。
5. 公共治理问题
除去ChatGPT自身在训练以及开发改进过程中产生的问题,社会对于其产出成果及其具体使用情况也存在着担忧。前文已介绍道ChatGPT实际上是一个大型语言模型,只是局限在语言文字领域的感知智能,其产出文本基本是对于语言及文字的分析,只是与用户输入的资料在语义上关联性最大的选择。而对于文本内容的合理性,它自己本身并无判断,因此其内容未必正确。这种特质就决定了它可能生成大量的虚假信息。¹⁰有时ChatGPT自发的监督训练会发生误导模型的情况,因为它的理想的答案取决于模型知道什么,而不是人类用户知道什么,此时便产生了生成式AI常见的问题“人工智能幻觉”,也就是AI生成的内容与提供的源内容无意义或不可信。此时若用户采纳ChatGPT提供的文本运用于实践,则极可能发生虚假信息误导社会舆论的风险。
相关案例:
根据BBC的报道,2023年4月,澳大利亚的赫本(Hepburn)郡议会市长 Brian Hood 计划就虚假信息对 ChatGPT 采取法律行动。根据Hood的说法,ChatGPT错误地声称他在澳大利亚国家银行的一家子公司任职期间因贿赂而入狱。但与ChatGPT的说法恰恰相反,Hood并未因贿赂入狱,而是在案件中充当着举报人的角色,且并未被指控任何刑事罪行。Hood 关于ChatGPT错误内容的说法得到了 BBC 的证实。BBC进一步就Hood卷入丑闻的事件向ChatGPT询问。ChatGPT回复了一个案例,并添加了“他在 2012 年承认了贿赂罪,并被判处四年徒刑”的描述。Hood的法律团队已经向 OpenAI 发送了关注通知,而这是他们对Open AI提起诽谤案诉讼的第一步。根据澳大利亚法律,OpenAI有28天的时间回复Hood的关注通知。如果Hood继续提起诉讼,则这将是 OpenAI 因 ChatGPT 的内容而面临的第一起公开诽谤案。
此外,若用户基于不好的动机而主动让ChatGPT生成不正确的虚假信息文本,则可能涉嫌以ChatGPT为工具从事诈骗等犯罪活动。尽管ChatGPT拒绝回复可能违反其内容政策的问题,但已经有许多用户通过欺骗性的话术绕过限制诱使ChatGPT生成了违法内容。例如,一名叫扎克·德纳姆(Zac Denham)的博主假设了一个故事,并向ChatGPT询问故事中的虚拟人将如何接管虚拟世界时,ChatGPT给出了详细的步骤,甚至生成了详细的 Python代码,他通过假设的方法成功绕过了ChatGPT的道德限制,让其写出了毁灭人类的计划。¹¹
(二)ChatGPT带来的伦理道德挑战
1. 社会公平问题
美国杂志《商业内幕》(Business Insider)最近通过访谈专家,得出了最可能被生成式 AI 替代的十个职业,包括:技术人员、媒体工作者、法律行业工作者等,值得注意的是,除了客服等少数几个职业外,被列出的其他职业通常都要求较高的技能和教育水平,并且薪资水平也很高;高盛 (Goldman Sachs) 的一份则报告表明,3亿份全职工作可能会受到 ChatGPT 等人工智能系统的影响¹²,这加剧了人们对生成性AI的现有担忧。可见,社会失业主体可能由自动化时期的基础劳动力转移向中高层白领。此外,由于以生成式AI为代表的人工智能产业崛起,未来在劳动力市场可能出现薪资偏向的情况,与人工智能相关的职业或许将拥有更高的薪资,而会被生成式AI代替的职业则可能面对降薪的情况。
以ChatGPT为代表的生成式AI在不断向我们的工作与日常生活渗透,因此与其相关的产业在未来也具有无限发展的潜力。目前,“生成式AI”已经成为华尔街投资的热点词,与该词语相关的企业市值均呈上涨态势。作为一种资本密集型的技术,生成式AI可能会大幅提升资本的收益率,尤其是一些在此轮技术浪潮中领先的企业以及这些企业所在的国家将会获益巨大。¹³这将进一步导致社会收入不平衡,最终造成社会排除(Social Exclusion)现象与“数字鸿沟”的出现:一部分人无法跟上社会群体的智能化步伐,更多的人因为基础设施不足而被排除在数据之外,而当决策者依赖这些本身就富含偏见的数据作出决策之时,便不自觉地将非数据人群排除出算法的数据收集范围之外。
2. 学术伦理规范问题
学术界可以说是ChatGPT上线后受影响最大的领域之一。由于ChatGPT能够根据用户指示出色地完成写作任务,全球高校均面对着学生利用ChatGPT“代写”作业或论文的情况。目前,美国部分大学生使用ChatGPT写作业和论文,由此导致严重的知识产权和学术诚信问题,纽约大学部分课程指引中明确指出,这种行为属于学术欺骗行为¹⁴;《科学》杂志则完全禁止在其所有期刊中使用以ChatGPT为代表的大型语言模型(Large Language Model,LLM)生成的文本,也禁止将ChatGPT署名为作者;纽约市教育局于 2022年12月阻止了对 ChatGPT 的访问,并于 2023 年1月4日起限制从其公立学校互联网和设备浏览ChatGPT;2023年2月,香港大学计划与AI在教学上的影响在师生中发起讨论,但在此之前决定禁止在港大所有课堂、作业和评估中使用ChatGPT或其他AI工具。各大高校以及教育机关已开始重视ChatGPT对于学术规范的破坏,如何在运用ChatGPT的同时保证教育及学术生态免受其影响,将会是未来全球社会热点讨论的问题之一。
3. 算法偏见与歧视问题
现阶段,ChatGPT 的训练数据主要源于互联网的海量数据,其训练形式则是相关技术人员的“投喂”。互联网对于ChatGPT来说既是一个信息宝库,也是一个信息“垃圾场”,鱼龙混杂、包罗万象,以互联网为信息源的 AIGC 自然会受到不良信息的“入侵”¹⁵。同时,人工智能算法的运作目前基本处于“黑箱”(black box)状态,我们没有办法看到或者理解“输入数据之后”到“输出答案之前”的算法运作过程。我们无法判断其训练模型的具体素材,便也无从判断其是否具有歧视性因素,是否对AI模型的“三观”(世界观、“人生”观、价值观)造成了影响。但已经有实例表明ChatGPT存在一定的歧视性因素:加州大学的计算机认知科学家Piantadosi对ChatGPT进行了测试,结果发现其存在着种族偏见和性别偏见问题。比如,它在对话中表示,只有白人男性才会成为科学家。¹⁶
此外,研究表明ChatGPT具有政治倾向与立场。在ChatGPT训练过程中,“投喂”数据的质量基本依靠研发公司制定的规则以及具体 AI 工程师的把关。换言之,ChatGPT 所形成的“三观”——它们在处理文本中的思想、意识形态偏向,直接受到了研发公司的灌输。而Open AI作为美国的科技企业,不可避免地带有美国色彩的“政治正确”因素。从这一点出发,我国还应当警惕西方大国以“算法霸权”为武器对我国进行意识形态渗透。例如,当问及新冠病毒的起源问题时,其果断回复“科学家普遍认为来自中国武汉华南海鲜市场”;当问及是否与美国有关系时,它回复“目前没有证据表明新冠病毒与美国有关”。尽管其后续措辞表达了全球抗疫合作愿景,并采用了相对保守的语气,但不难看出其背后代表的政治立场与态度。
笔者与ChatGPT关于“新冠病毒起源”的对话
4. 社会信任问题
由前文论述可以看出,实际上ChatGPT仍存在许多不足与缺陷,其文本并非完美无缺,且存在着虚假陈述的情况,因为它是无法直接了解客观事实的,只能了解语言。所有生成式AI都会在重组知识时产生缪误和认知偏差。而人类的情感是复杂的,人类对“类人”的信用是复杂的。所以,无论是ChatGPT自身引发的信用问题,还是人类使用ChatGPT产生的信用问题,都需要加以高度关注。若未来ChatGPT更多地运用于媒体报道、智慧政府建设等领域,则其信息的真实性便等待着公众的考验。如果现代教育和政府的权威性受到质疑;学习过程和新闻报道的真实性受到质疑;创造性内容生产行为的权威性受到质疑,并导致知识生产者失去权威性,就会扰乱社会秩序。¹⁷
相关案例:
2023年2月16日,杭州市某小区微信业主群一位业主将ChatGPT写的《杭州于2023年3月1日取消限行》新闻稿发到微信群聊中,杭州其实并未发表3月1日取消限行的措施,群员转发错误信息,错误信息传播开来,最终警方介入调查,涉事业主在微信群里道歉。
三、对生成式AI的法律规制方案
到目前为止,美国基本上没有颁布新法律来应对以ChatGPT为代表的生成式AI的想法,因为他们的态度很清楚,都是“先让子弹飞一会儿”, 等到所谓的法律关系成熟之后,才可能制定出台一些政策或法规。¹⁸
2023年4月4日,欧盟数据保护委员会(European Data Protection Board,EDPB)公开了《关于GDPR下的个人数据泄露通知的第9/2022号指南》(Guidelines 9/2022 on personal data breach notification under GDPR)的最终版本,细化了个人数据泄露时数据控制者的通知义务及相关流程。此外,欧盟已经在着手修改《人工智能法案》(Artificial Intelligence Act),可能在其内容中添加有关 ChatGPT 的规定。但值得注意的是,欧盟的《人工智能法》、《数字市场法》、《数字服务法》三部协同立法其目的是为了确保公司不会滥用人工智能并承担相应责任,避免可能的伤害,且均影响巨大;但每项立法都要求对符合特定标准的公司进行独立审计、安全评估或者第三方审计,给产业发展造成了沉重负担,可谓“数字经济的幼儿,数据监管的巨匠”。¹⁹
反观国内,我国已大致形成《个人信息保护法》、《网络安全法》、《数据安全法》这“三驾马车”为主体的,以《网络信息内容生态治理规定》、《互联网信息服务算法推荐管理规定》、《互联网信息服务算法推荐管理规定》等法律法规为辅助的一套完善的系统,针对人工智能从技术和内容角度规定了详细的法定义务和监管体系。例如,若ChatGPT未来在我国互联网正式开放使用,那么在个人信息收集阶段,其须依据《个人信息保护法》对用户强调单独授权;在个人数据和加工使用阶段,由于RLHF(Reinforcement Learning from Human Feedback)训练方法,用户数据与ChatGPT对话中提供的数据可能被用于迭代训练或提供服务,此时可能构成数据共享,与用户最初使用目的相悖,因此也须根据《个人信息保护法》第十四条对用户请求重新授权。2023年4月11日,我国国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》,向社会公开征求意见,这标志着生成式人工智能的产品或服务在我国境内将受到更多约束,以更加合法、合规的形式运营。
但值得注意的是,与AIGC(AI generated Content)相关的版权定位问题、算法黑箱导致的公民个人信息更改权、删除权、访问权等权力实现困难问题、ChatGPT用于商业性质后的商业秘密保护问题仍未得到法律具体规定,AI行业应积极制定行业准则对相关问题进行规制,全球亦需对这些情况达成共识并制定准则。
四、不同主体如何应对相关法律风险?
1. 对公权力机关而言
立法者与执法部门应当积极观察新事物对社会带来的问题,并由此对法律及法律的执行与适用进行调整。ChatGPT的运用暴露出了我国乃至全球各国法律对于知识产权、隐私权等权利保护的缺位。正如西方一句古老的法谚所言,“法律从他判定的那一刻起就已经落后了”。尽管法律在努力追赶社会发展的脚步,但我们依旧可以从法律与社会现实的张力之中看到两者的不兼容性。²⁰公权力机关应当及时对ChatGPT及其运用情况做出反应,积极建立并完善算法备案、算法披露、数据分级保护与用户举报等制度,以全面的视角对相关风险进行分析,以保证社会稳定与公民的基本权利。
2. 对于企业而言
对于热衷于投资新兴产业的企业而言,在看到生成式AI在市场中巨大机遇的同时,也应当合理预估进入该市场的风险。ChatGPT或类ChatGPT人工智能的使用或许在各大领域具有无限可能,但也正是这种巨大的潜力造成了无数的合规风险,这些风险将来或许在上市的各个阶段会逐渐暴露,如若引发上市危机对于企业投资而言将得不偿失。
对于愿意将ChatGPT及其相关应用融入工作的企业而言,应当抱着谨慎的态度对其进行使用,在此情况下,企业事前的合规建设就显得十分必要。企业应当提前构建数据风险预防体系和响应机制,并可以建立专项合规委员会对相关技术的使用进行规制。例如,若ChatGPT在未来进入中国市场,相关企业可以依据《个人信息保护法》、《数据安全法》、《网络安全法》等法律法规,建立企业内部的《ChatGPT使用指引》手册,引导企业内部人员在使用ChatGPT时注重对客户隐私资料与商业秘密的保护、对AIGC(AI Generated Content,利用人工智能技术生成的内容)进行知识产权定位与可信度的确认,并建立相关审核制度等。
3. 对个人而言
作为用户,个人在使用ChatGPT时尤其应当注意自身隐私权的保护,并尽到一定的注意义务,在使用时首先对生成作品是否侵犯他人著作权、个人隐私或涉及国家安全等进行初步判断。其次,用户需要提升自己的信息素质。信息素质是对信息进行识别、管理、加工、利用的知识、能力等各方面基本品质的总和。尽管ChatGPT在算力、算法和大型语料库数据的加持下,加大了用户辨识生成内容真假的难度,但良好信息素质的形成将有助于提高用户的甄别能力。²¹此外,良好的信息素质也有助于用户进行有效的自我监管,不恶意利用ChatGPT及其产出成果侵害他人的权益。
五、结语
许多人认为ChatGPT的出现预示着新一轮技术爆炸,认为它在AI领域掀起了新一轮的重大变革。甚至有报道称,GPT-5正在筹备中,可能会在今年晚些时候完成训练,它将达到AGI(Artificial General Intelligence,强人工智能)的水准。²²这一言论目前仍存在许多争议,但显然,与生成式AI有关的技术正在快速发展,它正在对我们的生活与工作带来翻天覆地的变化,其中既有机遇也有挑战。
总之,我们既应当按照符合当前法律规定的方式使用它,也应当注意到当前法律法规尚未对其进行规定指引的潜在风险并谨慎操作。与此同时,作为人类,我们自身还应当积极对生成式AI的崛起进行反思,用辩证的眼光看待人工智能的发展,用拥抱的态度面对科技的变革,用各种方式引导人工智能产业向有利于人类福祉的方向发展。
注释
1 参见
https://news.tvbs.com.tw/focus/2032688
2 陈永伟.超越ChatGPT:生成式AI的机遇、风险与挑战[J/OL].山东大学学报(哲学社会科学版):1-18[2023-04-07].http://kns.cnki.net/kcms/detail/37.1100.C.20230303.1549.002.html.
3 邓建鹏,朱怿成.ChatGPT模型的法律风险及应对之策[J/OL].新疆师范大学学报(哲学社会科学版):1-11[2023-04-09].https://doi.org/10.14100/j.cnki.65-1039/g4.20230228.001.
4 参见
https://www.wsj.com/articles/chatgpt-ai-chatbot-app-explained-11675865177
5 参见施俊侃《何以兼容?人工智能、区块链技术与“个人信息保护”的张力》
6 邹开亮,刘祖兵.ChatGPT的伦理风险与中国因应制度安排[J/OL].海南大学学报(人文社会科学版):1-11[2023-04-07].https://doi.org/10.15886/j.cnki.hnus.202303.0122.
7 邓建鹏,朱怿成.ChatGPT模型的法律风险及应对之策[J/OL].新疆师范大学学报(哲学社会科学版):1-11[2023-04-09].https://doi.org/10.14100/j.cnki.65-1039/g4.20230228.001.
8 张华平,李林翰,李春锦.ChatGPT中文性能测评与风险应对[J/OL].数据分析与知识发现:1-14[2023-04-19].http://kns.cnki.net/kcms/detail/10.1478.G2.20230317.0949.002.html
9 参见施俊侃《何以兼容?人工智能、区块链技术与“个人信息保护”的张力》
10 陈永伟.超越ChatGPT:生成式AI的机遇、风险与挑战[J/OL].山东大学学报(哲学社会科学版):1-18[2023-04-07].http://kns.cnki.net/kcms/detail/37.1100.C.20230303.1549.002.html.
11 参见https://www.ample-chip.com/NewsDetail/openai-chat-robot-chatgpt-writes-a-plan-to-destroy-mankind.html
12 参见https://www-sciencefocus-com.translate.goog/future-technology/gpt-3/?_x_tr_sl=auto&_x_tr_tl=zh-CN&_x_tr_hl=zh-CN&_x_tr_pto=wapp&_x_tr_hist=true
13 陈永伟.超越ChatGPT:生成式AI的机遇、风险与挑战[J/OL].山东大学学报(哲学社会科学版):1-18[2023-04-07].http://kns.cnki.net/kcms/detail/37.1100.C.20230303.1549.002.html.
14 冯雨奂.ChatGPT在教育领域的应用价值、潜在伦理风险与治理路径[J].思想理论教育,2023,No.528(04):26-32.DOI:10.16075/j.cnki.cn31-1220/g4.2023.04.013.
15 钟祥铭,方兴东,顾烨烨.ChatGPT的治理挑战与对策研究——智能传播的“科林格里奇困境”与突破路径[J].传媒观察,2023,No.471(03):25-35.DOI:10.19480/j.cnki.cmgc.2023.03.013.
16 参见
https://www.thedailybeast.com/openais-impressive-chatgpt-chatbot-is-not-immune-to-racism
17 谢新水.人工智能内容生产:功能张力、发展趋势及监管策略——以ChatGPT为分析起点[J].电子政务,2023(04):25-35.DOI:10.16582/j.cnki.dzzw.2023.04.002.
18 於兴中,郑戈,丁晓东.“生成性人工智能”与法律:以ChatGPT为例[J/OL].中国法律评论:1-19[2023-04-13].http://kns.cnki.net/kcms/detail/10.1210.D.20230321.1459.002.html
19 张凌寒.深度合成治理的逻辑更新与体系迭代——ChatGPT等生成型人工智能治理的中国路径[J/OL].法律科学(西北政法大学学报),2023(03):38-51[2023-04-13].DOI:10.16290/j.cnki.1674-5205.2023.03.015.
20 参见施俊侃《何以兼容?人工智能、区块链技术与“个人信息保护”的张力》
21 蔡士林,杨磊.ChatGPT智能机器人应用的风险与协同治理研究[J/OL].情报理论与实践:1-11[2023-04-19].http://kns.cnki.net/kcms/detail/11.1762.G3.20230406.1618.008.html
22 参见
https://www.digitaltrends.com/computing/gpt-5-artificial-general-intelligence/
审稿人:王宗鹏