11月24日早间消息,尽管埃隆·马斯克致力于推动人工智能(AI),但他同时认为,AI非常有可能在未来对人类造成威胁。在接受《滚石》杂志(Rolling Stone)的专访中,这位科技名人声称,关于安全使用AI,我们只有5-10%的成功机会。
前景不太好
埃隆·马斯克花了很多心思来思考严酷的现实和人类无法驾驭AI的可能性。这些思考让他确信,如果我们要生存下去,就必须与机器合二为一,为此,他甚至创建了一个专门开发脑机接口(BCI)技术的初创公司,以达成这一目标。但是,尽管他自己的实验室OpenAI已经能够实现AI的自我学习功能,但马斯克日前表示,安全使用AI只有“5-10%的成功几率”。
《滚石》杂志近期的报道显示,马斯克已经与上文提到的BCI初创企业Neuralink的员工提到了这一微乎其微的可能性。尽管马斯克积极参与人工智能的开发,但他公开承认,这项技术带来的不仅是潜在的可能性,而且可能引发严重问题。
安全利用人工智能的挑战可谓一把双刃剑。
首先,人工智能的一个(也是OpenAI已经在追求的)主要目标是构建比人类更聪明的AI,它可以在没有任何人类编程或干扰的前提下独立学习。但如何实现这种能力,目前还是未知数。
其次,机器没有道德、悔恨或情感。未来的人工智能或许能够区分“好”和“坏”的行为,但显然无法具备人类的感觉。
在《滚石》的文章中,马斯克进一步阐述了人工智能领域目前所存在的危险和问题,其中之一是只有少数公司在控制着AI行业。他援引谷歌DeepMind为例来加以说明。
“在Facebook、谷歌和亚马逊之间,哦,还有苹果公司,他们似乎很关注隐私——他们对你的了解比你自己还多,”马斯克说。“权力集中可导致许多风险。所以,如果一般人工智能(AGI)代表权力的极端水平,它应该在毫无监督的条件下由谷歌的几个人来掌控吗?”
值得冒险吗?
专家们对于马斯克认为AI不安全的表述看法不一。Facebook的创始人马克·扎克伯格说,他对人工智能的未来持乐观态度,认为马斯克的警告“相当不负责任”,与此同时,斯蒂芬·霍金(Stephen Hawking)公开发表声明,真心认为AI系统对人类构成了足够的风险,它们可能会完全取代我们。
谢尔盖·尼科联科(Sergey Nikolenko)是俄罗斯一位专门从事机器学习和网络算法的计算机科学家,最近他分享了对此事的看法。尼科联科说,“我觉得我们仍然缺少必要而基本的认识和方法,无法制造出强大的AI,也难以解决AI及其他相关问题。”
至于今天的人工智能,他认为我们没有什么可担心的。“我可以打赌,现代神经网络不会突然醒来,决定推翻人类霸主,”尼科联科说。
马斯克本人可能同意这一观点,但他的表述看似更侧重于如何在我们今天的基础上创建未来的人工智能。
我们已经有了AI系统,能够构建人工智能系统,它们有的可以用自己的语言进行交流,有的天生具有好奇心。尽管今天的奇点技术和机器人的兴起还严格局限于科幻小说层面,但这些人工智能领域的进步已经让人们得以一窥真正的未来世界。
但上述担忧并不足以阻止我们继续前行。我们也可以让AI诊断癌症,识别自杀行为,协助制止性交易。
人工智能技术有可能在全球范围内挽救和改善人们的生活,因此,我们必须考虑如何通过未来的监管使人工智能变得安全,马斯克的警告语毕竟只是一家之言。
连他自己也对《滚石》表示:“我没有所有问题的答案,我要好好把这件事弄清楚。我正试着构想一套我能采取的行动,以便创造一个美好的未来。如果你有这方面的建议,不妨告诉我。”