人工智能是一项了不起的技术,它正在以不可思议的方式改变世界。如果你看过电影《终结者》,肯定知道先进的人工智能技术蕴含一些危险。
正因如此,伊隆·马斯克(Elon Musk)、史蒂芬·霍金(Stephen Hawking)才连同另外数百名研究人员、科技领袖和科学家联名支持人工智能应该在生产力、道德和安全领域遵守的23条基本原则。
在未来生活研究院(Future of Life Institute)组织数十名专家共同参加Beneficial A.I. 2017大会之后,便正式发布了《艾斯罗马人工智能23定律》(Asilomar A.I. Principles)。这些专家包括机器人学家、物理学家、经济学家、哲学家,他们对人工智能在安全、经济和道德等领域产生的影响展开了激烈辩论。要让这套定律最终获得通过,必须获得多达90%的与会专家认可。
“我们起草了23条定律,范围从研究战略到数字权益,再到可能出现的超级智能等未来的各种问题。认可这些定律的专家已经在上面签下自己的名字。”未来生活研究院网站写道,“这些定律并不全面,显然也可以有不同的解读,但它也凸显出一个问题:目前围绕许多相关问题开展的很多‘默认’行为,可能会破坏在多数与会人员看来十分重要的原则。”
共有892名人工智能或机器人研究人员以及另外1445名专家在这份定律上签字,包括特斯拉CEO马斯克和著名物理学家霍金。
其中一些定律(例如透明度和共享研究成果)实现的可能性较低。即便这些定律无法得到全面落实,但这23条定律仍然可以改进人工智能开发过程,确保这些技术符合道德标准,避免邪恶势力崛起。
以下是《艾斯罗马人工智能23定律》的全部内容:
1、研究目标:
人工智能研究目标不能不受约束,必须发展有益的人工智能。
2、研究资金:
人工智能投资应该附带一部分专项研究基金,确保其得到有益的使用,解决计算机科学、经济、法律、伦理道德和社会研究方面的棘手问题:
——如何确保未来的人工智能系统健康发展,使之符合我们的意愿,避免发生故障或遭到黑客入侵?
——如何通过自动化实现繁荣,同时保护人类的资源,落实人类的目标?
——如何更新法律制度,使之更加公平、效率更高,从而跟上人工智能的发展步伐,控制与人工智能有关的风险?
——人工智能应该符合哪些价值观,还应该具备哪些法律和道德地位?
3、科学政策联系:
人工智能研究人员应该与政策制定者展开有建设性的良性交流。
4、研究文化:
人工智能研究人员和开发者之间应该形成合作、互信、透明的文化。
5、避免竞赛:
人工智能系统开发团队应该主动合作,避免在安全标准上出现妥协。
6、安全性:
人工智能系统应当在整个生命周期内确保安全性,还要针对这项技术的可行性以及适用的领域进行验证。
7、故障透明度:
如果人工智能系统引发破坏,应该可以确定原因。
8、司法透明度:
在司法决策系统中使用任何形式的自动化系统,都应该提供令人满意的解释,而且需要由有能力的人员进行审查。
9、责任:
对于先进的人工智能系统在使用、滥用和应用过程中蕴含的道德意义,设计者和开发者都是利益相关者,他们有责任也有机会塑造由此产生的影响。
10、价值观一致性:
需要确保高度自动化的人工智能系统在运行过程中秉承的目标和采取的行动,都符合人类的价值观。
11、人类价值观:
人工智能系统的设计和运行都必须符合人类的尊严、权利、自由以及文化多样性。
12、个人隐私:
人类应该有权使用、管理和控制自己生成的数据,为人工智能赋予数据的分析权和使用权。
13、自由和隐私:
人工智能在个人数据上的应用决不能不合理地限制人类拥有或理应拥有的自由。
14、共享利益:
人工智能技术应当让尽可能多的人使用和获益。
15、共享繁荣:
人工智能创造的经济繁荣应当广泛共享,为全人类造福。
16、由人类控制:
人类应当有权选择是否及如何由人工智能系统制定决策,以便完成人类选择的目标。
17、非破坏性:
通过控制高度先进的人工智能系统获得的权力,应当尊重和提升一个健康的社会赖以维继的社会和公民进程,而不是破坏这些进程。
18、人工智能军备竞赛:
应该避免在自动化致命武器上开展军备竞赛。
19、能力警告:
目前还没有达成共识,我们应该避免对未来人工智能技术的能力上限做出强假定。
20、重要性:
先进的人工智能代表了地球生命历史上的一次深远变革,应当以与之相称的认真态度和充足资源对其进行规划和管理。
21、风险:
针对人工智能系统的风险,尤其是灾难性风险和存在主义风险,必须针对其预期影响制定相应的规划和缓解措施。
22、不断自我完善:
对于能够通过自我完善或自我复制的方式,快速提升质量或增加数量的人工智能系统,必须辅以严格的安全和控制措施。
23、共同利益:
超级人工智能只能服务于普世价值,应该考虑全人类的利益,而不是一个国家或一个组织的利益。
责任编辑:吴昊