文|赵精武 北京航空航天大学法学院副教授
来源丨《可持续发展经济导刊》
编辑丨王秋蓉
北京时间3月15日凌晨,OpenAI发布了ChatGPT的最新“升级版本”GPT4模型,据分析,GPT4是一个能接受图像和文本输入,并输出文本的多模态模型,是OpenAI在扩展深度学习方面的最新里程碑。
受到市场炒作技术概念的影响,ChatGPT一度被吹捧为“前所未有的重大技术创新”,这显然是误读了ChatGPT爆火出圈的现实意义。ChatGPT不是一项已经彻底成熟的技术产品,即便是Open AI也承认,即便是GPT4仍有优化空间。从目前的使用情况来看,ChatGPT的适用局限主要表现为三个层面:
一是知识体系更新周期慢。ChatGPT需要海量的训练数据集合及时更新和迭代现有的算法模型,其生成结果具有明显的时间局限性,如2023年年初发生的社会热点事件,ChatGPT显然无法及时做出相对准确的回应。
二是算力资源需求极高,普通企业难以支撑。ChatGPT的强大功能需要充足的数字基础设施,其所需要的算力资源和服务器数量远超普通公司所能承担的经济能力,短期内难以制作出媲美或超越ChatGPT的竞品。
三是准确率难以保障,无法有效完成具有一定逻辑要求的工作任务。ChatGPT尚未达到科幻小说中的“强人工智能”,现阶段仅能解决部分重复性、模块化的工作任务,并且其生成成果部分时可能存在显著的逻辑错误。ChatGPT的这些局限性决定了其仅能被视为AI技术领域的重大创新而非核心技术突破,距离全面普及应用AI技术仍然需要一段时间,并且短期内,ChatGPT也无法完全取代人类从事特定岗位的工作任务。
但是,伴随着ChatGPT内置算法模型的不断优化以及数据训练集合的不断丰富,“AI技术+行业场景”的应用方式终将会到来,并且也将会对现有的社会运行方式产生深远影响。
任何技术的创新发展总是机遇与风险并存,这在AI技术领域尤为明显。ChatGPT的爆火出圈也让部分专家学者忧心忡忡,该项技术一旦被滥用,则会导致新一轮的技术安全风险,而这些风险类型也是现行立法所无法涵盖的内容。
而且,AI技术的创新周期正在不断缩短,监管机构难以再依循传统的强行政监管模式全面预防AI技术风险和规范AI技术应用模式,频繁的技术创新使得监管机构难以同步跟进对AI技术原理的理解认知。这种AI技术监管困境在ChatGPT领域尤为明显,国内外对于ChatGPT的技术风险认知涵盖了各个视角:
在教育领域,ChatGPT已经被部分学生用于课堂论文撰写,国外各大高校乃至学术期刊均全面禁止利用ChatGPT完成论文撰写。从长远来看,一旦学生依赖于ChatGPT完成课堂作业、测验以及自主学习任务目标,这并不利于学生自主学习能力和批判思维的养成,反而会削弱课堂教学的效果。
在网络安全领域,部分观点认为ChatGPT会恶化网络安全态势,其强大的代码编写能力会导致恶意代码侵蚀整个网络空间秩序,更会成为网络犯罪的技术工具。事实上,能够直接发起网络攻击的恶意代码不仅仅是需要完成计算机语言代码的编写,更需要根据攻击目标的网络防御体系、安全漏洞以及目标文件的攻击路径等多个因素进行代码与代码之间的整合。ChatGPT所谓的代码编写功能不过是以部分功能的代码编写为限,无法形成能够满足特别具体的编写需求,甚至在运行过程中无法正确访问目标文件。
在数据安全领域,ChatGPT有可能成为隐藏的数据泄露缺口。因为在用户输入相关信息的时候,这些输入的信息和问题也将成为ChatGPT算法训练的“素材”。倘若部分用户选择输入企业内部数据,则存在商业秘密泄露的风险。
在网络犯罪领域,ChatGPT能够批量生成贴近人类逻辑的信息内容,而这一技术特征一旦被应用到网络电信诈骗、钓鱼电子邮件等活动中,受害人难以在第一时间分辨出真假,并且这种批量生成不同信息内容的功能有可能会提升网络电信诈骗的规模和频次。
类似地,在网络舆情治理领域,ChatGPT还可能被网络水军用于操纵网络评论,借由符合逻辑的评论信息内容,可以绕过平台的审核机制,舆情操纵行为将更加隐蔽。
前述ChatGPT的技术安全风险尚停留于设想和预测层面,未来ChatGPT以及其他AI技术将何去何从无人可知。然而,ChatGPT背后的AI技术安全风险不得不让社会重新审视和评估现有的治理体系和治理框架能否应对各种新兴的技术安全风险以及未知的挑战。立法规制论曾被广泛认为是解决技术安全风险的最佳方案,通过预设的行为规则限定技术应用的场景的确能实现治理目标。
可是,这种观点忽视了数字时代技术创新浪潮的“汹涌”,频繁的立法规制只会让立法活动沦为技术安全的信任背书,并在“一个技术对应一项专门立法”的循环中逐渐迷失法律的基本功能。在AI技术尚未真正实现产业成熟之前,过早地规范技术应用方式或底层技术原理,只会起到抑制技术创新的消极作用。并且,立法者不可能代替技术专家去预测所有可能的安全风险并在立法文件中予以明确。
审视ChatGPT背后的技术安全风险,不难发现,这些安全风险的源头大多是“用户的滥用行为”或者“技术应用的非伦理性”,因此,科技伦理评估机制顺势成为现阶段AI技术治理的重要工具。在《互联网信息服务算法推荐管理规定》中,立法者就已经明确算法推荐服务提供者不设置违背伦理道德算法模型,要求算法服务提供者建立健全科技伦理审查机制。
此外,全国信息安全标准化技术委员会在2021年专门发布《网络安全标准实践指南——人工智能伦理安全风险方法指引》,将失控性风险、社会性风险、侵权性风险、歧视性风险、责任性风险作为AI伦理安全风险分析的核心事项。
在国外,各国也纷纷提出各自的AI科技伦理评估机制,如欧盟的《可信任的人工智能伦理指南》提出“尊重人类自主、预防损害、公正与可解释性”这四项伦理原则,美国在2016年发布的《为人工智能的未来做准备》中提出研发人员需要确保AI是开放、透明、可理解与可治理的。
之所以科技伦理评估机制受到如此重视,是因为相较于直接规范用户行为而言,事前规范研发人员对于AI产品部分功能的设置行为更显奇效。在完成科技伦理评估之后,ChatGPT及其类似产品能够从自身限定部分功能的使用范围,如不留存用户输入数据、禁止大批量生成具有工具性的代码片段。
在探讨AI技术治理的过程中,科技伦理评估机制往往因为其道德规范性而饱受质疑,所谓的公平、公正、透明、可解释等AI技术伦理原则究竟能够在多大范围内发挥作用尚难以判断。
事实上,科技伦理评估机制的类似质疑早已有之,如在医疗健康领域。然而,实践证明,医疗伦理原则在很大程度上是解决医疗科研风险的首要机制,并成为医疗行业所共同遵守的行为规范。
至于AI技术领域,科技伦理评估机制则需要面对全新的问题,因为在该领域,AI技术产品的研发与创新并不具备医疗领域“提升医疗保障水平”等服务于社会公共利益的共同目标,并且在不同行业、不同场景中,AI技术产品的伦理评估事项也各有侧重。
那么,如何建构一整套适用于整个AI产业的科技伦理评估机制成为当下亟需回应的治理难题。
第一,在不同AI应用场景下需要评估的科技伦理事项不同,但并不等同于不存在适用于整个AI行业的基本原则。从目前ChatGPT以及其他AI产品产生的安全风险来看,AI行业的基本原则应当包括“透明公正”“可解释”“尊重用户”“安全可控”四项基本要求。
“透明公正”是指人工智能产品应当向用户说明基本功能、技术原理以及是否存在影响用户权益的重要事项。“可解释”是指人工智能产品的提供商应当能够说明输入端与输出端之间的关联性,证明输出结果的可靠性。
“尊重用户”是指人工智能产品不应当歧视用户,其算法模型不应当存在具有社会偏见的评估要素。
“安全可控”是指人工智能产品能够满足法定要求和行业通行的安全技术标准,并且产品提供商能够有效控制该人工智能产品潜在的技术安全风险。这四项伦理原则乃是人工智能产品、服务研发过程中所需要普遍遵循的基本内容,其内核是“技术创新应当以最大化人类共同福祉为目标,而不是以牺牲安全和权益为代价”。
第二,基于前述四项基本原则,科技伦理评估机制则需要进一步补充不同应用场景中的具体评估原则,以便能够让研发机构及其科研工作者在实际研发和代码编写过程中予以遵守。
以教育领域为例,学习类人工智能产品的研发应当是以辅助学生自主学习、提升学习效率和培养批判思维为基本目标,故而相应研发机构和研发人员应当遵循的具体原则包括“预防依赖”“禁止非诚信行为”“保护未成年用户”三项内容。
“预防依赖”是指人工智能产品不应当成为人类学习的替代品,而是应当定位为学习辅助工具;“禁止非诚信行为”是指人工智能产品不应当成为“论文枪手”“作弊器”,研发机构应当限定在特定时间(如重大考试期间)的部分功能;“保护未成年用户”是指人工智能产品不得擅自收集未成年用户的个人信息,不得向未成年用户推送商业化广告,应当以最有利于未成年人成长的方式提供人工智能产品与服务。
第三,科技伦理终究是不具有强制性的道德规范,若想其发挥事前风险预防的治理效果,一个关键环节就是完成伦理原则与法律规则之间的衔接。目前来看,科技伦理原则的内容不仅包含了道德层面的科技伦理,还包含了与法定义务具有同质性的伦理原则。
除了需要在立法中明确科技伦理评估机制作为一项法定义务而存在,同时还需要明确人工智能产品提供商未能履行该项义务时的法律责任。借由明确的行为规范和清晰的行为后果引导提供商做出最恰当的行为选择,并对算法模型进行持续性优化,尽可能满足“安全可信”的人工智能技术要求
· END ·
来源丨《可持续发展经济导刊》2023年4期
原文标题《ChatGPT风险治理中的科技伦理规则审视与反思》
图片来自网络,如有侵权,请联系删除