据Computerworld网站报道,美国加利福尼亚州的“自动驾驶汽车”新规则突出了对人工智能的一个明显误解。
受过良好教育的公众都知道无人驾驶技术非常了不起,但它们迄今还无法在没有驾驶员坐在车内的情况下完全控制汽车。目前的“安全驾驶员”——坐在驾驶员座位上的人,目的是防止人工智能出现故障——被淘汰,完全由人工智能来驾驶汽车只是个时间问题。
加利福尼亚州刚刚批准了不设“安全驾驶员”的自动驾驶汽车牌照,但有一个附加条件:自动驾驶汽车公司必须能够远程监控并接管汽车驾驶工作。这一规则使得加利福尼亚州向已经批准真正无人驾驶汽车的其他州看齐。车内没有人,或至少驾驶员座位上没有人,但远程监控和远程控制使这一切成为可能,还能确保汽车安全和遵守相关法规。
Computerworld专栏作家麦克·埃尔根(Mike Elgan)设想,自动驾驶汽车公司将有像美国航空航天局那样的控制室,其中有大量操作员、显示屏和交通流量数据,数十名工作人员就可以监控数以百辆计的无人驾驶汽车,当汽车出故障或碰到自己无法应对的复杂情况时,随时接管汽车控制权。对无人驾驶汽车的远程监控,也可能在与呼叫中心相似、由众多“小隔间”组成的办公场所内完成。以下是埃尔根所了解的宣布将建设或已经建设了这种控制室的无人驾驶汽车公司:
·Udelv
·日产
·Waymo
·Zoox
·Phantom Auto
·Starsky Robotics
其他无人驾驶汽车公司也将有这样的控制室吗?所有公司都必须有。
想想看,当人工智能不够智能,不足以应对意外情况时,需要人帮助的不仅仅只是无人驾驶汽车。
人工智能世界:还需要人
为了弥补人工智能的不足,企业常常采取幕后的人为干预措施。这种做法的理念是,人类监督者确信人工智能运转良好,并担任教师角色。当人工智能失败时,人的干预是软件调整的指南。这一启发式过程的明确目标是,最终人工智能将能够在没有监督的情况下运行。
还记得Facebook M吗?它是在Facebook Messenger上的一款虚拟助手。这一项目背后的明确目标是,提供一款虚拟助手,可以像人类助手那样与用户进行交互。这款“产品”是机器自动化。但现实情况是,大量人类助手在幕后对它进行监督和干预。这些人员还会在人工智能失败后对它进行训练,使人工智能最终能独立运行。Facebook设想逐步减少人类对Facebook M的干预,直至它能完全自动运行。Facebook M能完全自动运行的这一天永远也不会到来。
Computerworld表示,这种方法的问题似乎是,一旦人类参与到过程中,预期的自我退出就永远不会出现。以Facebook M为例,Facebook预计将逐步不需要人类的帮助,但反而不得不取消了整个Facebook M项目。Facebook对这一项目相当低调,但它可能已经搞清了下述事实:人工智能现在需要人类帮助,未来可能会无限期地需要人类帮助。
许多其他人工智能公司和服务的运作方式与此类似,虽然对外宣称的是人工智能,但实际情况却是人工智能加幕后的人类助手。在基于人工智能的服务领域,有大量的人在幕后辛劳地工作,弥补人工智能与我们期望之间的差距。
那么,谁在进行这项工作?首先是用户。9年来,谷歌一直利用其reCAPTCHA系统对用户进行身份验证:用户被要求证明他们是人。证明过程涉及真实和虚假的测试,人能识别计算机不能识别的物体。最初,谷歌利用reCAPTCHA来帮助计算机通过光学字符识别(OCR),识别书籍和以往的《纽约时报》的内容。然后,它帮助谷歌人工智能系统读取谷歌街景地图中的街道地址。4年前,谷歌把reCAPTCHA打造成一款人工智能训练系统。大多数训练的目的是识别照片中的物体——可以用于自动驾驶汽车或街景地图。一种常见的情况是,将包含路牌的照片分隔成正方形,并要求用户通过点击包含路牌的每个正方形,来“证明他们是人类”。这里的实际情况是,谷歌人工智能在接受训练,以确切地知道哪部分图片是路牌(自动驾驶汽车在行驶时必须考虑),哪部分图片只是“噪声”,会被导航系统忽略。
但用户只是业余(不知情)的人工智能帮手。专业的人工智能培训师和帮手,在上班时间会识别和标注照片中的虚拟和实际物体。他们测试、分析并推荐算法中的变化。在任何复杂人工智能系统的开发中,非预期后果法则都是一个突出因素。下边是一个过于简单化的例子:
假设你开发了一款人工智能机器人,其任务是制作汉堡、用纸包好、放在一个包中,然后交给顾客,最后一项任务是使包与顾客的距离在2英尺以内,使顾客能够拿住它。
我们来假设一种场景,顾客在房间的另一侧,人工智能机器人会以相当高的速度把包抛给客户。你会发现,人工智能机器人准确地完成了任务,但方式与人来完成这一任务有所不同。这里就要求增添更多规则,使它能以文明的方式完成任务。
这是一个生动而荒谬的例子,但是人工智能的训练,似乎涉及无穷无尽的这类修正过程,因为根据人类的定义,人工智能实际上并不智能。
埃尔根的意思是:一个人的行为如果像人工智能,会被认为是白痴。或者,我们可能会说一名向顾客抛一袋汉堡包的员工缺乏常识。对于人工智能来说,常识是不存在的。人工智能在开发必须考虑到各种可能的情况。开发者需要针对每种可能的情况,确定一种符合常识的反应。
为什么人工智能将继续需要人的帮助
埃尔根怀疑自动驾驶汽车公司能最终摆脱遥控室。在可预见的将来,人们将需要对自动驾驶汽车进行监督和遥控。一个原因是保护汽车免遭破坏,这可能会成为一个真正的问题。据媒体报道,报告的人攻击或蓄意与自动驾驶汽车相撞的事件正在增加。
我也相信,无论出于何种原因,乘客都可以按下一个按钮,与控制室中的人通话。一个原因可能是神经质的乘客:“呃,控制室吗?,我现在要睡午觉了,你能帮我看下车吗?”
但最大的原因是这个世界很大,而且复杂多变。奇怪、料想不到的事随时都会发生:雷击、飞鸟与相机相撞、小孩子用激光笔照射传感器,即使出现这些情况,自动驾驶汽车也不能崩溃并胡乱动作。它们太危险了。
埃尔根认为,再过数十年,我们才能在人命关天时信任人工智能。
为什么我们相信人工智能是人造和智能的
造成人工智能具有超能力错觉的现象被称作伊莱扎效应(Eliza effect),是麻省理工学院在1966年的一项研究中提出的。利用伊莱扎聊天机器人的测试对象,报告称他们感受到了计算机的同理心。
目前,伊莱扎效应让人感觉到人工智能无所不能,但实际上它的能力是有限的。当我们听说一台超级计算机在国际象棋比赛中获胜时,我们会认为:“如果他们能在国际象棋比赛中击败聪明人,他们一定比聪明人更聪明。”但这是一种错觉。事实上,会下国际象棋的机器人,在下国际象棋这件事上比人更“聪明”,但在其他许多事情上,人比那些擅长下国际象棋的计算机更聪明。
自动驾驶汽车可不只是做一件事情,它要做许多事情。这对人来说很容易,但对于人工智能来说就难于上青天了。
Computerworld称,我们不能过高估计人工智能——事实上,人工智能是惊人和突破性的,并将改变人类生活,通常会使人类生活更美好。我们一贯低估人类智能,至少在我们的有生之年,在完成以人为中心的任务时,人类仍将远远优于计算机。
自动驾驶汽车的发展,完美地表明认为机器能以复杂方式自行运转的认识是错误的。机器能自行运转,但离不开我们的帮助。在没有足够的智能来完成任务时,人工智能需要人的支持。
责任编辑:吴昊