伴随此轮人工智能发展高潮,社会中普遍存在这样的担忧与疑虑:机器是否会取代人类,人工智能是否会成为人类文明史的终结?
在未来的人类生活中,人工智能也必将扮演越来越重要的角色。对于这样的图景,我们自不必惊慌,但也不可忽视。监管人工智能,找到正确的方向并采取合理的措施,正是当下所应该重视的政策议题。
人工智能在其60余年起起伏伏的发展史中,再次迎来了高潮。但伴随此轮发展高潮的,同样还有社会中普遍存在的担忧与疑虑:机器是否会取代人类,人工智能是否会成为人类文明史的终结?
这样的担忧自有其合理性所在,而也正是基于此,要求政府介入并对人工智能的发展进行监管的呼声不绝于耳。可问题在于:对于一个尚未成为现实而仅存在于想象中的“威胁”,究竟应该如何施以监管,以避免“孩子跟洗脚水一起倒掉”?
事实上,监管的难题并不在于如何平衡技术发展的利弊两端,而是如何准确定位技术的潜在威胁并有针对性地施以监管。换句话说,人工智能的危害真的是“取代人类”么?若如此,唯一合理的监管方式可能就是完全禁止该项技术的研发。考虑到人工智能技术的应用已经遍及生活的方方面面,从搜索引擎到社交网络再到定制新闻,不一而足。也正因为此,我们可能需要重新反思当前对于人工智能的担忧是否成立。如果不成立,其真正的威胁又是什么?在回答这些问题的基础上,我们才有可能找到监管人工智能的合理路径,并使之更有效地服务于人类、服务于未来。
人工智能:究竟应该担心什么
2016年10月19日,霍金在剑桥大学Leverhulme未来智能中心的开幕仪式上发表演讲,声称“人工智能可能是人类文明史的终结……其在人类历史上,可能是最好的,也可能是最糟糕的”。这并不是霍金第一次对人工智能的发展发出警告。2014年在接受BBC的采访时,他也表达了类似的观点。自那之后,霍金也积极投入到宣传、推动对人工智能研究进行合理规范的行动当中。事实上,Leverhulme未来智能中心成立的重要使命之一便是化解AI(人工智能)可能带来的风险。
霍金并非“杞人忧天”的唯一,特斯拉、SpaceX的创始人埃隆·马斯克同样屡次警告人工智能潜藏的巨大风险。在霍金、马斯克等人的推动下,超过892名人工智能研究人员以及另外1445名专家共同签署并发布了《人工智能23条原则》,以确保人工智能的发展行进在正确轨道上。
人工智能是否会取代甚至“奴役”人类的可能性并非是针对其的唯一担忧,人工智能对于就业的冲击、社会不平等状况的加剧同样是引起人们焦虑的重要原因。《未来简史》的作者尤瓦尔·赫拉利就直接指出:人工智能的发展将导致大量失业等社会问题的出现,并使得少数个体成为“超人”中的新精英而大部分人类都将沦为在经济、政治意义上毫无价值的个体,由此人类将进入最不平等的时代。
我们是否应该相信霍金、马斯克和赫拉利等人对于人工智能的担忧呢?不同的人有不同的观点。扎克伯格就曾批评过马斯克,他认为“现在对于人工智能安全性的担忧,就如同两百年前担心飞机坠毁怎么办一样。如果我们总是过度担心安全性,我们就不可能造出飞机。”事实上,历史上任何一项颠覆性的技术进步都伴随着诸多质疑,无论是原子能技术的发明,抑或是基因工程的突破,无不如此。但历史最终证明,人类社会的发展并未陷入混乱或终结,这也说明当前对于人工智能的担忧或许存在一定的夸大成分。
不过另一方面,人工智能的发展又的确潜藏了巨大风险,放任自流的监管态度明显不是最优选择。同样需要指出的是,自1960年代OECD提出“知识社会”的概念之后,技术发展就成为了与土地、人口并重的国家竞争力的重要体现之一。如何通过合理监管以有效引导本国人工智能技术的发展,自然成为各国政府绕不开的难题。也正因为此,当前争议的核心并非“是否应该对人工智能的发展进行监管”,真正的挑战在于“监管什么”,以及“如何监管”。
事实上,只有回到人工智能技术本身并从其基本原理出发,才能正确理解什么是人工智能,它能干什么、不能干什么,潜藏的价值和风险又是什么。只有建立在对这些问题正确理解的基础上,我们才能为未来的监管政策提出有益建议。
算法背后的基石:数据与规则
在经历了2016年的火热之后,许多人已经可以感知到人工智能,以及支撑其运行的机器学习算法的普遍存在。无处不在的人工智能已经开始逐渐影响我们的日常生活,计算设备在“吞入”海量数据的同时,神奇地生产着与你相关的各种信息、产品与服务。
但这个过程究竟是如何发生的?建立在机器学习算法基础上的人工智能是否会不断进步乃至最终超越人类的控制?要想对这一问题做出回答,我们便不得不回到机器学习的算法本身上来。
算法本质上就是一系列指令,告诉计算机该做什么。对于传统算法而言,往往事无巨细地规定好了机器在既定条件下的既定动作;机器学习算法却是通过对已有数据的“学习”,使机器能够在与历史数据不同的新情境下做出判断。
具体而言,机器学习算法的实现方式多种多样,但就当前的技术发展而言,主要可被划分为5个类别:符号学派、联接学派、进化学派、类推学派和贝叶斯学派。每个学派都遵循不同的逻辑、以不同的理念实现机器学习的过程。
对于“符号学派”而言,所有的信息处理都可被简化为对符号的操纵,由此学习过程被简化(抽象)为基于数据和假设的规则归纳过程。在数据(即当前事实)和已有知识(即预先设定的条件)的基础上,符号学派通过“提出假设—数据验证—进一步提出新假设—归纳新规则”的过程训练机器的学习能力,并由此实现在新环境下的决策判断。符号学派固然符合经验主义的哲学认知,但通过其概念模型我们亦可以发现,其成功的关键在于数据的完整性和人为预设条件的可靠性。换言之,数据的缺失和预设条件的不合理将直接影响机器学习的输出(即决策规则的归纳)。最明显体现这一问题的例子便是罗素的“归纳主义者火鸡”:火鸡在观察10天(数据集不完整)之后得出结论(代表预设条件不合理,超过10个确认数据即接受规则),主人会在每天早上9点给它喂食;但接下来是平安夜的早餐,主人没有喂它而是宰了它。
数据和预设条件的问题不仅存在于符号学派,这同样是其他学派的共性。“联接学派”试图模拟人脑的学习过程,通过仿真神经元的联接结构,并借助反向传播算法(反馈输出与输入的对比,并以误差为基准调整参数)自动调整各个联接的权值,以最终实现学习能力。此处的关键仍然是输入数据集的完整性,以及预设条件的可靠性(例如停止反馈调节的阈值设定)。“进化学派”试图模拟人类的进化过程,在预先设定的适应度目标(例如过滤垃圾邮件算法的设计中,某个规则正确分类邮件的百分比就是适应度目标)指引下,通过交叉、实验不同的规则集合以找出与测试数据适应度最高的规则集(也即形成学习能力)。由此仍然可以看出数据与预设条件(适应度目标的设定)的重要性。“类推学派”亦是如此,其基本思想是通过判别不同场景的相似程度,来推导新场景中的合理决策。就此而言,参考数据集的完整性和不同场景相似程度的阈值设定(预设条件)依然是影响机器学习结果的关键所在。相比于前四个学派,贝叶斯学派对于数据集的规模没有太高要求,因其优势正是对于未来不确定性的学习与探索。贝叶斯算法将根据收到的新数据来持续检验既有假设成立的概率可能性,并对其进行实时调整。不过即使如此,贝叶斯算法依然受制于输入数据和调整规则。换言之,数据与人为预设条件依然是控制贝叶斯算法的关键。
事实上,如果跳出具体学派的思维束缚,每种机器学习算法都可被概括为由“表示方法、评估、优化”这三部分组成。尽管机器可以不断地自我优化以提升学习能力,且原则上可以学习任何东西,但用以评估的数据以及评估的方法和原则都是由人为决定的。也正是从这个角度讲,本文开始所提到的“机器取代人类”的可能性其实为零——尽管机器可能会变得异常复杂以致人类难以理解。
监管人工智能:真正的挑战是什么
正如霍金、马斯克等人发起倡议的《人工智能23条原则》一样,人工智能的发展确需被纳入到正确的轨道上来——尽管原因并不在于耸人听闻的“机器取代论”。
那究竟应该“监管什么”且又“如何监管”呢?问题的答案或许就在于本文第二部分对于机器学习算法的概念性描述上:既然数据和预设规则是所有算法的基石,那么数据治理和规则治理便自然成为监管人工智能的关键。
一方面,我们给机器什么样的数据,机器就会形成什么样的学习能力并随之反馈给我们相应的学习结果。这一过程首先要解决的问题便是数据从何而来,机器又将如何利用数据?正如前文所反复阐述的,不完整的数据集必然导致人工智能学习过程的错误——就像罗素笔下的“归纳主义者火鸡”一样。但大规模的数据收集又必然带来隐私保护、利益分配等诸多问题,由此形成的对于数据治理的监管要求便成为了监管人工智能的第一步。在保护个体数据权利的基础上,鼓励并规范数据的分享与应用,以最终促进人工智能朝着更好的方向发展。
另一方面,机器优化的规则(条件)又是由谁、通过何种程序来制定。尽管我们认为没有必要过多地担忧人工智能的发展,但真实的威胁依然存在。事实上,人工智能正在以不被察觉的方式潜移默化地影响人类日常生活,如果机器优化的规则不是以正当的程序受到监管和制约,那么很难保证其不被不法之徒所利用。正如长久以来对于“脸书”的质疑一样:公众如何相信其向用户推荐的新闻内容不会掺杂特殊利益的取向?当越来越多的人依赖定制化的新闻推送时,人工智能甚至会影响到总统选举。也正因为此,包括透明、开源在内的诸多治理原则,应当成为人工智能监管政策制定过程中被纳入的合理议题。
在经历了60余年的发展之后,人工智能终于在互联网、大数据、机器学习等诸多技术取得突破的基础上实现了腾飞。在未来的人类生活中,人工智能也必将扮演越来越重要的角色。对于这样的图景,我们自不必惊慌,但却也不可忽视。监管人工智能,找到正确的方向并采取合理的措施,正是当下所应该重视的政策议题。
责任编辑:吴昊