

“顶流”之后,浅析ChatGPT的合规挑战
ChatGPT 是由美国人工智能研究公司OpenAI研发并在2022年12月1日推出的聊天机器人程序。它能够根据用户的文本输入,产生相应的智能回答。这个回答可以是简短的词语,也可以是长篇大论。其中GPT是Generative Pre-trained Transformer(生成型预训练变换模型)的缩写。
一经推出,“光速出圈”。据报道,截至2023年一月末,ChatGPT的月活用户已突破1亿,成为史上增长最快的消费者应用,微软也宣布推出由ChatGPT支持的最新版本人工智能搜索引擎Bing(必应)和Edge浏览器。通过学习大量现成文本和对话集合,它能根据聊天的上下文进行互动,真正像人类一样来聊天交流,无论是英文还是其他语言(经我们测试,回答中文的速度慢于英文),从聊天、写故事、讲笑话,到撰写邮件、视频脚本、文案、翻译、代码甚至是商业计划书和行业分析,“几乎”无所不能。
目前,国内主要科技公司也都宣布了各自的AI计划。百度宣布它计划在 3 月推出聊天机器人“文心一言”(英文名 ERNIE Bot);阿里巴巴表示它在内部测试类似 ChatGPT 风格的聊天机器人;腾讯证实它也有 ChatGPT 相似产品和 AI 生成内容的计划;京东表示计划在其服务中整合部分 ChatGPT 使用的技术,如自然语言处理;网易表示它的教育部门将整合 AI 生成内容。不过,一家科技公司的匿名高管表示,每当出现所谓的“下一个大事件”,很多公司都会宣布进入该领域,部分公司可能纯粹是炒作,并不存在真正的相关产品。
ChatGPT的商业应用场景
作为最新一代的语言模型,ChatGPT本质上就是将海量的数据结合表达能力很强的Transformer模型结合,从而对自然语言进行了一个非常深度的建模,返回的语句乍一看条理清晰、逻辑通顺,还是很像人类思考后的回复,因此这一技术在需要海量的人机交互的场景下具有广泛的应用场景——
其一,搜索引擎;
其二,银行、律所、各类中介机构、商场、医院、政府政务服务平台中的人机交互机制,如上述场所中的客诉系统、导诊导航、政务咨询系统;
第三,智能汽车、智能家居(如智能音箱、智能灯光)等的交互机制。
ChatGPT等AI聊天技术运用在客诉系统和医院、商场的导诊导航以及政府机关的政务咨询系统中将大幅度降低相关单位的人力资源成本,节约沟通时间,但基于统计的回答有可能产生完全错误的内容回复,由此带来的风控风险恐怕还需要进一步评估。相比于上述两个应用场景,ChatGPT应用在智能汽车、智能家居等领域成为上述设备的人机交互机制的法律风险则要小很多,因为这类领域应用环境较为私密,AI反馈的错误内容不至于引起大的法律风险,同时这类场景对内容准确性要求不高,商业模式也更为成熟。
ChatGPT的合规风险
尽管国内接入ChatGPT商用可能在技术上比较简单,但面临的合规风险也不容小觑——
1 虚假信息
ChatGPT的工作原理导致其回复可能完全是“一本正经的胡说八道”,这种看似真实实则不准确的信息具有极大的误导性。当然,像对“xx有哪些旅游胜地”这类问题的虚假回复可能不会造成严重后果,但倘若ChatGPT应用到搜索引擎、客诉系统等领域,其回复的虚假信息可能造成极为严重的法律风险。
因此,当检测到用户可能询问专业性问题时,应当引导用户咨询相应的专业人员,而非通过人工智能处寻找答案,同时应当显著提醒用户聊天AI返回的问题真实性可能需要进一步验证,以最大程度降低合规风险。
2 知识产权
ChatGPT的工作原理是依靠巨量的自然语言本文(或言语料库),ChatGPT需要对语料库中的数据进行挖掘和训练,将语料库中的内容复制到自己的数据库中,相应的行为通常在自然语言处理领域被称之为“文本数据挖掘”。当相应的文本数据可能构成作品的前提下,文本数据挖掘行为是否侵犯复制权当前仍存在争议。目前我国著作权法并未将AI中的“文本数据挖掘”纳入到合理使用的范围内,文本数据挖掘在我国依然需要相应的知识产权授权。
此外,著作权归属问题也一直是讨论热点——使用生成式AI创作的作品属于AI、开发AI的公司、还是输入提示词的人?关于AI是否可以成为著作权人,大部分国家的法律都只将著作权授予人类,如美国著作权法明确表示著作权只能由人类享有;而我国著作权法也规定著作权所有者只能是“中国公民、法人、非法人组织、外国人、无国籍人”,而并未规定AI可以成为著作权人。如果AI本身不能享有著作权,那么使用生成式AI技术产生的作品属于开发AI的公司还是输入指令的人呢?在中国香港、印度、爱尔兰、新西兰、英国等地,著作权归属于开发AI的人或公司。而随着生成式AI应用的发展,包括ChatGPT在内的部分应用都将生成式AI作品著作权的归属定义为输入指令/提示词(prompt)的人。
3 网络安全与数据合规
网络安全的风险—— 生成式AI在帮助人类获取知识和解决问题的同时也可能会被用来写恶意软件代码,进而危害网络安全;另外,存有大量交互信息的生成式AI本身可能会成为网络攻击对象,从而进一步加大数据泄露的风险。此外,由于算法偏见以及不真实信息源带来的政治操控对信息安全乃至国家安全的风险不容忽视。
数据来源的合规风险—— ChatGPT的训练数据来自于广泛的互联网文本和社交平台信息。虽然大数据时代,数据爬虫是企业采集公开数据的常用手段,但对于抓取数据是否会筛选个人信息甚至敏感个人信息;类似生成式AI抓取训练数据时所使用的爬虫技术是否具有侵入性;以及前期抓取的数据是否仅用作训练等问题,均应引起我们的警惕。
数据处理的合规风险—— 在使用生成式AI的过程中是否会侵犯商业秘密、企业数据权益与个人信息权益的问题也值得关注。生成式AI代替人工作的同时增加了数据泄露的风险,生成式AI公司该如何确保与用户交互过程中不侵害商业秘密、企业数据权益以及用户个人信息与其他人身权益也成为了值得思考的问题。关于这个问题,不同的生成式AI公司做法不尽相同,OpenAI作为生成式AI的领头羊自然也在隐私保护措施探索方面走在前列:ChatGPT回答承诺对所有数据采取严格保密措施,保护隐私安全;而OpenAI的另一款图像生成应用DALL-E 则在用户协议中声明:禁止上传可识别的人类面部图像,禁止在提示词(prompt)中输入现实存在的人名,并加入技术和人工审核来防止滥用。
4 互联网内容审查
现阶段,任何语言类生成AI本身都存在准确性不足、道德伦理边界感差等固有缺陷,OpenAI自身也承认ChatGPT有时会写出看似合理但不正确或荒谬的答案,解决这个问题具有挑战性。虽然OpenAI已努力使模型拒绝不当请求,但它有时会响应有害指令或表现出有偏见的行为。OpenAI正在使用Moderation API来警告或阻止某些类型的不安全内容,但预计ChatGPT目前仍会有一些漏报和错报。因此,在商用时相关企业必须做好此类“不当内容”的过滤,如限制用户输入及通过自建库或第三方服务等方式。
5 算法合规
《互联网信息服务算法推荐管理规定》与《互联网信息服务深度合成管理规定》是目前国内直接监管人工智能技术的两个重要部门规章,《互联网信息服务深度合成管理规定》也是新近正式生效,宜重点关注。
《互联网信息服务深度合成管理规定》明确区分了“深度合成服务提供者”、“深度合成服务技术支持者”与“深度合成服务使用者”三个概念:深度合成服务提供者是指提供深度合成服务的组织、个人;深度合成服务技术支持者,是指为深度合成服务提供技术支持的组织、个人;深度合成服务使用者,是指使用深度合成服务制作、复制、发布、传播信息的组织、个人。对于什么是算法推荐服务的提供者,《互联网信息服务算法推荐管理规定》并没有作出明确规定。如果国内商用ChatGPT的经营者被认定为是服务的提供者而非使用者,尤其是在自己产品或服务上集成ChatGPT的功能供用户使用的情况下,将至少面临实名认证、显著标识、算法可解释、内容审查、确保用户自主决定权、备案及安全评估等进一步的合规义务。
6 国际联网违规
ChatGPT并非因国内网络环境的监管要求导致国内用户无法登录访问,而是OpenAI公司主动禁用来自中国的IP地址访问,禁用的理由目前并不明确。笔者认为,企业如果是自行建立或租用专线(含虚拟专用网络VPN),为用户访问境外ChatGPT提供代理服务,存在较高的违规风险。2017年1月,工信部发布《关于清理规范互联网网络接入服务市场的通知》,明确“未经电信主管部门批准,不得自行建立或租用专线(含虚拟专用网络VPN)等其他信道开展跨境经营活动。基础电信企业向用户出租的国际专线,应集中建立用户档案,向用户明确使用用途仅供其内部办公专用,不得用于连接境内外的数据中心或业务平台开展电信业务经营活动。”
实践中,外贸企业、跨国企业因办公自用等原因,需要通过专线等方式跨境联网时,可以向依法设置国际通信出入口局的电信业务经营者租用。依法使用VPN的关键是通过有合法许可的服务提供商,该服务提供商必须有经营国际通讯业务的资质,或者是一个已获授权的具备国际通信出入口局的基础电信业务运营商。从已获授权的基础电信业务运营商处获得的VPN服务也只能在企业内部使用。需要注意的是,上述违规行为情节严重的,将可能构成非法经营罪。
我国人工智能的政策环境
我国目前尚无国家层面上的人工智能产业立法,但地方已经有相关的立法尝试。去年9月,深圳市公布了全国首部人工智能产业专项立法《深圳经济特区人工智能产业促进条例》,而后上海也通过了《上海市促进人工智能产业发展条例》,相信不久之后各地均会出台类似的人工智能产业立法。在伦理规制方面,国家新一代人工智能治理专业委员会在2021年发布了《新一代人工智能伦理规范》,提出将伦理道德融入人工智能研发和应用的全生命周期。
随着人工智能的逐步发展,相应的法律合规挑战还会持续出现。OpenAI首席技术官米拉·穆拉蒂表示,ChatGPT应该受到监管,因为它“可能被滥用,也可能被坏人使用”。科技革新离不开法律法规的约束和相关监督机制的配套。守住伦理底线和法律底线,才能形成正向互动促进,推动人工智能的发展。如ChatGPT所言:“决定我们命运的不是机器,而是我们为全人类创造更美好明天的心灵、思想和决心”。
参考资料:
1、架构师技术联盟2023年2月6日:《ChatGPT发展历程、原理、技术架构详解和产业未来》,架构师技术联盟
2、德恒深圳2023年2月12日:《变革与焦虑:ChatGPT引发的知产与合规思考》
3、肖飒lawyer2023年2月6日:《热度“狂飙”的ChatGPT,亟待“合规刹车”》
4、北京植德律师事务所2023年2月14日:《ChatGPT“热”背后的“冷”思考系列一:简析ChatGPT潜藏的法律风险》
一 END 一