构建公开透明人工智能全过程监管体系

构建公开透明人工智能全过程监管体系-DVBCN

王春晖

人工智能技术的发展被称为第四次工业革命,是一个融合计算机科学、统计学、脑神经学和社会科学的前沿综合学科,可以代替人类实现某种识别、认知、分析和决策等功能,已经成为当今世界各国一争高下的重要场域。

不过,到目前为止,人工智能并没有确切的定义,有人推测人工智能的发展远景将经历三个阶段:一是弱人工智能阶段;二是强人工智能阶段;三是超人工智能阶段。笔者认为,目前所有的人工智能技术尚属于弱人工智能阶段。

人工智能面临的伦理与法律问题

已故著名物理学家、剑桥大学教授史蒂芬·霍金在世时曾警告:在我的一生中,见证了许多社会深刻变化,其中最深刻的,同时也是对人类影响与日俱增的变化,就是人工智能的崛起。霍金认为人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。

笔者认为,人工智能在其发展进程中面临的最大问题不是技术本身,而是伦理和法律问题。2017年6月,由联合国国际电信联盟主办的主题为“人工智能造福人类”的全球峰会在日内瓦召开。这次峰会聚焦了人工智能的两大国际性问题:一是加速人工智能的研发和应用,以应对贫困、饥饿、健康、教育和环境保护等全球性挑战;二是探讨如何确保人工智能的安全性并符合伦理规范,防止其带来意想不到的后果。

2016年,标准制定组织IEEE发布了首份人工智能报告(2016),其名称为:“利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景”。该报告提出了一个发展人工智能的一般性原则,主要涉及的是高层次伦理问题,报告认为,人工智能发展的一般性原则将适用于所有类型的人工智能和自主系统。在确定一般原则时,主要考虑三大因素:一是体现人权;二是优先考虑最大化对人类和自然环境的好处;三是削弱人工智能的风险和负面影响。

原则之一:人类利益原则。人类利益原则要求考虑,如何确保人工智能和自主系统不侵犯人权。为了实现人工智能和自主系统尊重人权、自由、人类尊严及文化多样性,在使用年限内是安全、可靠的,一旦造成损害必须能够找出根本原因(可追溯性)等目的,应当构建治理框架,包括标准化机构和监管机构,增进公众对人工智能和自主系统的信任。

原则之二:责任原则。责任原则涉及如何确保人工智能和自主系统是可以被问责的。为了解决过错问题,避免公众困惑,人工智能系统必须在程序层面具有可责性,证明其为什么以特定方式运作。

首先,立法机构/法院应当阐明人工智能系统开发和部署过程中的职责、过错、责任、可追责性等问题,以便于制造商和使用者可以知晓其权利和义务分别是什么;其次,人工智能设计者和开发者在必要时考虑使用群体的文化规范的多样性;再次,当人工智能及其影响游离于既有规范之外时,利益相关方应当一起制定新的规范;第四,自主系统的生产商/使用者应当创建记录系统,记录核心参数。

原则之三:透明性原则。透明性原则意味着,自主系统的运作必须是透明的,人们能够发现其如何以及为何作出特定决定。人工智能的不透明性,加上人工智能开发的去中心化模式,加重了责任确定和责任分配的难度。透明性对每个利益相关方都意义重大:第一,对使用者,透明性可以增进信任,让其知道人工智能系统可以做什么及其这样做的原因;第二,对人工智能和自主系统批准和认证机构,透明性能确保人工智能系统可以接受审查;第三,如果发生事故,透明性有助于事故调查人员查明事故原因;第四,事故发生之后,参与审判的法官、陪审团、律师、专家证人需要借助透明性来提交证据,作出决定;第五,对于自动驾驶汽车等颠覆性技术,一定程度的透明性有助于增强公众对技术的信心。

原则之四:教育和意识原则。教育和意识原则涉及如何扩大人工智能和自主系统技术的好处,最小化其被滥用的风险。在人工智能和自主系统越来越普及的时代,需要推进伦理教育和安全意识教育,让人们警惕人工智能和自主系统被滥用的潜在风险。这些风险可能包括黑客攻击、赌博、操纵、剥削等。

2018年7月,中国发展研究基金会在其发布的一份《未来基石——人工智能的社会角色与伦理》的报告中也指出,尽管有少数哲学和社科领域的学者开始关注人工智能带来的伦理问题和社会挑战,但是这些讨论并未进入公共政策视界,而且讨论的重点也多集中在超级人工智能这样仍相对遥远的议题上。该报告认为,在人工智能问题上,围绕可能出现的挑战,无知、忽视、偏狭、误解交织在一起,可能会导致真正的风险。该报告建议:在社会层面,高校和研究机构开展前瞻性的科技伦理研究,为相关规范和制度的建立提供理论支撑;各国政府、产业界、研究人员、民间组织和其他利益攸关方展开广泛对话和持续合作,通过一套切实可行的指导原则,鼓励发展以人为本的人工智能;人工智能企业应该将伦理考量纳入企业社会责任框架中。

事实上,人工智能和自主系统带来了许多复杂的伦理问题,这些伦理问题往往直接转化为具体的法律挑战,或是引发复杂的连带法律问题。每个伦理问题一般都涉及相关法律问题。笔者认为,当前的人工智能本质上是一种建立在大数据基础上的自我学习、判断和决策的算法,算法的核心是基于网络的编程技术,但这种编程技术绝非中立,人工智能的算法决策具有典型的“黑箱”特点,这应当引起现代法律人的高度警惕,进行深入研究,应当从伦理学和法律融合的角度深入审视和研究人工智能的算法。笔者呼吁,人工智能的算法必须确立法律的可追溯性原则,人工智能的行为决策全程应当处于法律监管之下。

构建公开透明的人工智能全过程监管体系

我国应当建立健全公开透明的人工智能监管体系,重点在人工智能的设计问责和应用监督并重的双层监管结构上做充分的准备,实现对人工智能算法设计、产品开发和成果应用等的全过程监管。促进人工智能行业和企业自律,切实加强人工智能协同一体化的管理体系,加大对人工智能领域数据滥用、算法陷阱、侵犯个人隐私、违背道德伦理等行为的惩戒力度。

在人工智能技术研发的同时,要加强人工智能相关法律、伦理和社会问题的同步研究,尤其要关注人工智能模仿人类传播错误信息或将商业无人机转化为目标武器攻击人类,建立和优化保障人工智能健康发展的法律法规和伦理道德框架。法律研究领域要开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、机器伦理与破坏力评价等伦理与法律问题的交叉研究,建立人工智能的可追溯和问责制度,明确人工智能的设计者、控制者、使用者等相关法律主体的权利、义务和责任。

关于人工智能监管的原则,科幻作家艾萨夫·阿西莫夫于1942年提出的“机器人学三律”仍具有参照价值,非常值得借鉴:

第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;

第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;

第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。

笔者建议,国家有关部门或行业组织应当制定人工智能产品研发设计人员的道德规范和行为守则,加强对人工智能潜在危害与收益的评估,构建人工智能复杂场景下突发事件的解决方案。同时,我国应当积极参与人工智能的全球治理,加强机器人异化和安全监管等人工智能重大国际共性问题研究,深化在人工智能法律法规、国际规则等方面的国际合作,构建我国人工智能领域的国际制度性话语权。

相关文章
深圳重磅政策:租用智能算力开展大模型训练、人工智能行业应用均可最高1000万元资助
深圳重磅政策:租用智能算力开展大模型…
广电总局重要会议:建设新型广电网络、加快超高清端到端全链条发展
广电总局重要会议:建设新型广电网络、…
权威报告:我国2.3亿人用过生成式人工智能产品,数据资源是其训练“养料”
权威报告:我国2.3亿人用过生成式人工智…
国家知识产权局征求意见稿:人工智能专利发明人必须是自然人
国家知识产权局征求意见稿:人工智能专…
四川省:2027年算力总规模达到40EFLOPS,5G基站总数达32万个
四川省:2027年算力总规模达到40EFLOPS…
【破局】这家广电有线省网将率先成立人工智能(AIGC)实验室?
【破局】这家广电有线省网将率先成立人…
我还没有学会写个人说明!