对话嘉宾 郭 锐 中国人民大学未来法治研究院研究员
“人工智能治理攸关全人类命运,是世界各国面临的共同课题。”2023年10月,中央网信办发布《全球人工智能治理倡议》,呼吁各国政府、国际组织、企业、科研院校、民间机构和公民个人等各主体秉持共商共建共享的理念,协力共同促进人工智能治理。
如今从中国到全球,面对快速发展、日新月异的人工智能技术,如何在把握机遇的同时防范风险,确保其造福人类、智能向善,备受关注。为此,近日,本刊记者专访了中国人民大学未来法治研究院研究员郭锐。
作为国内最早开展人工智能伦理与治理的研究的学者之一,郭锐担任着国家信息标准化委员会人工智能专业委员会委员、全国标准化委员会人工智能总体组社会伦理研究负责人,并参与撰写了中国第一个以人工智能标准化为主题的白皮书,并主持撰写了国家标准委人工智能总体组《人工智能伦理风险研究》报告。
人工智能正在引发人类社会历史性变化
CST:您最早是如何开始人工智能伦理研究的?最近在关注哪些问题?
郭锐:2017年,一位计算机科学家朋友邀请我参加人工智能伦理标准化的研究。我接受邀请,参与了广泛的与国内外专家的合作研究,包括来自国际标准组织(ISO)、国际电气电子工程师协会(IEEE)、经合组织(OECD)、联合国的专家以及国内外科技巨头的一流科技人员。
在这个过程中,我对技术前沿和伦理思考的研究不断加深,在中国人民大学首次开设了人工智能伦理与治理课程,并出版了国内第一本人工智能伦理与治理领域专著——《人工智能伦理与治理》。
最近我在关注如何回应超人类主义和法律的问题。自从赫胥黎提出超人类主义以来,这个主张随着技术的发展历经变化,但核心主张始终是通过技术手段超越人类的现有生理和心理限制。
我研究的问题是:法律体系如何适应并管理那些可能根本改变人类能力甚至人类本质定义的技术?超人类主义不仅重启了对人类能力极限的讨论,也对现有的个人权利、责任归属和伦理界限等提出了挑战。这个问题,同样关乎人类社会历史性变化。
CST:您如何看待当前及未来中国人工智能发展的基本形势?
郭锐:我不敢说能准确把握人工智能发展的基本形势,从我的自己阅读和研究来看,当前正处于人工智能引发人类社会历史性变化的时刻。
全球人工智能竞赛已经开启,以欧盟为代表的发达国家无论是从技术发展还是立法规范方面都在加速行动,中国在全球人工智能的竞赛中也扮演着重要角色。中国的优势在于能够迅速地将AI技术应用于大规模场景。
行业巨头如腾讯、阿里巴巴、美团、京东、百度等均在有潜力的领域中迅速进步,在技术研发、产品应用、市场拓展等方面都取得不俗成果。在医疗健康领域,国内应用AI技术助力药物研发、优化临床试验和提升临床决策质量,已取得初步成果。
CST:面对新形势,您认为如何防范人工智能发展带来的风险?
郭锐:我认为有三个方面:一是推动建立社会人工智能的伦理共识,提高人工智能科技人员、从业者和用户的伦理意识和素养,避免人工智能的滥用和误用。
二是以上述伦理共识为基础,建立健全人工智能的法律法规和标准规范,明确人工智能的责任主体、权利义务、风险防范和纠纷解决等方面的法律规则,保障人工智能的安全、可靠、可控和可信。
三是推动人工智能的国际合作和交流,积极参与国际组织和多边机制,共同制定人工智能的全球治理原则和规则,促进人工智能的公平、开放、共享和包容发展。
人工智能伦理是实现SDG的重要保障
CST:从中国到全球,新时代下人工智能伦理为何引发高度关注?涉及哪些核心议题?
郭锐:人工智能技术的发展,不仅给人类带来了巨大的效率提升,也对人类的价值观、社会秩序产生了深刻的影响。在这个过程中,保障人工智能技术合乎伦理的使用,就成为全球人工智能伦理与治理的重要课题。
人工智能的伦理是指在人工智能技术的研发、应用和推广过程中,遵循应有的道德准则和法律规范,以保护人类的利益和尊严。遵循人工智能伦理,是实现人工智能治理目标的基础,后者旨在构建技术与社会的良性互动。同时,人工智能的伦理与治理是实现更大的社会发展目标和全球美好愿景特别是联合国2030可持续发展目标的重要保障。
我在《人工智能伦理与治理》一书中指出,或由于人工智能技术本身的特性,或由于其应用过程中社会赋予了它的特定角色,无论人类是否承认,人工智能已经在深度“参与”人的决策。从这个意义上说,人工智能技术与传统的工具意义上的技术有质的区别。而这种“参与”,让人类面对被自己创造的技术存在反噬的可能性,我把它称作创造秩序危机。人工智能伦理的本质,就是对创造秩序危机的回应。
人工智能伦理的核心议题,包括人工智能的透明性、可解释性、安全性、公平性等。这些议题不仅关系到人工智能技术本身的发展,更关系到社会各个利益相关者。从这个意义上说,人工智能伦理是人类社会能够继续受益于技术的前提和保证。
CST:您如何理解人工智能伦理与可持续发展的关系?
郭锐:这个问题恰好可以接着上一个问题的回答来阐发。我认为“人工智能伦理是人类社会能够继续受益于技术的前提和保证”,这是因为人工智能作为一种有相当“自主性”,并且用于社会和个人生活中重要决策的技术,如果不能遵守建立在社会共识之上的伦理原则,会带来严重后果。这些严重后果会导致资源浪费、环境污染、气候变暖等,与可持续发展背道而驰。
如今我们已经越来越清楚地看到,每个领域都在高度关注可持续发展。人工智能技术承载着未来几十年甚至更长久的时间里推动经济发展和社会进步的重任,必须与可持续发展相一致。
从更广的意义上看,人工智能伦理与可持续发展的基本目标是一致的,这个基本目标就是人类繁盛。如果说可持续发展的愿景是通过为个人和社会提供过上美好生活所需的资源和机会,人类繁盛就是可持续发展更大的目标,也同样是人工智能伦理的目标。
面对挑战保持谨慎乐观与深刻反思
CST:就世界范围而言,当前人工智能伦理面临的挑战是什么?如何应对?
郭锐:基于对人工智能给人类带来伦理危机的根源,我在研究中提出了两个基本原则:人的根本利益原则和责任原则。
人的根本利益原则,即人工智能应以实现人类根本利益为终极目标。这一原则体现在对人权的尊重、对人类和自然环境利益最大化以及降低技术风险和对社会的负面影响方面。
责任原则,即在人工智能相关的技术开发和应用中都建立明确的责任体系,以便当人工智能导致不良后果时能够有效问责,保障人工智能应用的公平合理性。能否在这两方面都形成道德和法律上的共识,是当前人工智能伦理面临的最大挑战。
在实施这两个原则的过程中,如何平衡创新和风险,也是人工智能伦理面临的挑战之一。人工智能是一种不断发展的技术,有可能带来科技人员、商业组织所意想不到的结果。如何在鼓励创新的同时有效预防和控制风险,是一个需要持续关注和探讨的问题。
另外,如何协调不同文化和社会的价值观和利益也是一个亟待解决的问题。人工智能是一种跨国界和跨文化的技术,可能会引发不同国家和地区之间的冲突和竞争,这也是不能忽视的重大挑战。
根据人工智能不同的发展阶段,人类社会应当有近期和远期的规划。对于人工智能近期的规划,是基于“弱人工智能”的,故此应考虑技术发展、市场竞争和社会影响来帮助社会形成伦理共识并建立法律规制的基础。
从远期看,人类社会需要考虑的是能够深度参与人类决策的人工智能,甚至是有相当自主性的“强人工智能”,故此法律规制应建立在社会已有的伦理共识之上,关注技术对人际关系、社会结构等对人类未来有深刻影响的领域。
CST:如今随着ChatGPT的广泛应用,再次引发人工智能可能替代人类的担忧。您是怎么看的?
郭锐:我也注意到一位非人类——ChatGPT,首次被《自然》杂志“破例”列入年度科学人物,“以承认生成式人工智能给科学发展和进步带来的巨大改变”。ChatGPT可以帮助人类从一些重复性、无需创造力的工作中解放出来,甚至可以通过协助写作、设计等激发人类的想象力。
但是,它也可能产生一些错误或不恰当的内容,比如歧视、谎言、暴力等。如果人类过度依赖或信任ChatGPT,它甚至会影响人的语言和思维能力,改变人类的社会和文化结构。这些都是真正的问题,但不能简单归结为担忧ChaGPT是否可以“代替”人类。
我记得几年前有一个著名TED演讲,通过展示人类的道德发展赶不上技术的发展,斩钉截铁地指出人类必然因无法应对人工智能的迅速发展而遭遇厄运。我没有那么悲观。作为研究者,我认为未来人工智能会替代一部分人的工作,但永远不会替代能够利用人工智能的人。我十分期待人类利用人工智能造福人类、推动可持续发展带来的巨变。
人类经历的科技变革有可能造成短期社会动荡,如马克思和卡尔·波兰尼所描述的英国工业革命给英国带来的社会危机。但今天在人工智能快速发展的时代,我们寄希望于人类对历史的反思,对谦卑、善良、美好的追求。无论是中国延续数千年的儒家传统还是西方的犹太教、基督教传统,都为我们提供了历史和伦理思考的“富矿”。“温故知新”是我们保持谨慎乐观的前提。
编辑丨王秋蓉
来源丨《可持续发展经济导刊》2024年1-2月刊
原文标题丨《在全球人工智能竞赛中找准治理方向——专访中国人民大学未来法治研究院研究员郭锐》