刚刚结束平昌冬奥会的韩国,又爆出一大事儿,引发外媒竞相报道。韩国宣布大手笔投资人工智能和军事系统!联合国正不遗余力的制定与致命自主武器有关的明确国际条约,韩国此举俨然又是在和联合国唱反调。
韩国此举到底啥目的?说是要将人工智能应用于各种国防项目。为此还搞了一个致力于开发基于人工智能的军事创新的新基地。
这个基地是韩国防务公司 Hanwha Systems 与韩国科学技术院(KAIST)联手推出的。2 月 20 日就开放了,被称为国防和人工智能融合研究中心。
这个基地到底研究些什么东西?双方最初宣布了四个研究领域,包括“基于人工智能的指挥决策系统,大型无人海底车辆复合导航算法,基于人工智能的智能飞机训练系统和基于人工智能的智能物体跟踪识别技术。
为啥韩国这一举措能一时激起千石浪?这是因为去年,科学家和研究人员大力推动禁止研发自主武器的国际条约,而韩国在这个节骨眼弄出这么个事儿。
联合国最初开始讨论制定一系列条约,作为去年 11 月的特定常规武器公约(CCW)的一部分,但是在俄罗斯等国家拒绝支持。
自主武器是什么呢?为什么联合国都出动定制公约,众多科学家联合反对?
自主武器是指能够在无人干预情况下独立搜索、识别并攻击目标的一种新式武器,包括目前某些防御武器所具有的能够拦截来袭的导弹、火箭弹和炮弹或附近的飞机的自主模式均属于自主武器的雏形。
作为一种新式武器,有专家认为其出现可能改变战争模式,而其在随后发展中是否能够区分平民和军事目标也受到国际人道组织的关注。
虽然我们离在战场上部署自主武器还有一些时日,但专家认为,各国研制出的机器人并不会具备道德观念。
并且自主武器的系统自动化程度越高,受黑客入侵的风险也就越大。但有些国家已经开始在战场上使用无人运输机了,如图中所示的“收割者”无人机。
一旦它们落入黑客手中,势必会在战场上引起严重的骚乱。专家们担心的不只是机器人设备本身,他们更担心黑客会侵入整个无人武器系统。
除此之外还有一个问题就是,就算它们的操作是合法的,自主武器还会带来严重的道德和伦理问题。让一台机器掌握生死大权,这样做真的正确吗?
在去年 8 月墨尔本举行的 2017 国际人工智能联合大会(IJCAI)上,来自 26 个国家的 116 位机器人和人工智能公司的创始人签署一封公开信,呼吁联合国紧急磋商致命自主武器的危机,并在国际范围内禁止其使用。
信上说:“一旦开发成功,它们将使冲突扩张到从未有过的规模,而且速度会让人类难以适应”,“它们将成为恐怖之武器,成为暴君和恐怖分子残害无辜民众的武器,亦或被黑客挟持的武器”。
全自主武器目前尙不存在,世界各强权国家,包括美国在内,也都尙未决定是否部署这类武器。
不过,有些高科技军事单位正着手发展,或已经部署某些自主性更强,能够自动调整的试验型的装备。 美国是这个科技发展领域的先驱者。以色列、南韩、 俄罗斯等几个国家已跟着投入。
许多专家预测,全自主武器可在二十到三十年内被研制成功,部分专家甚至认为更快。
2013 年 5 月 17 日俄罗斯负责国防工业的副总理罗戈津透露,俄罗斯科研人员正在研发一种机器人。
该机器人被称之为“杀手机器人”,可不借助人类干预就能自行选择并攻击目标,还可以在 恐怖分子袭击的环境中帮助疏散撤离受伤士兵和平民。
2017 年 11 月,在日内瓦举办的联合国特定常规武器公约会议上,一段骇人听闻的视频发布,视频中类似杀人蜂的小型人工智能机器人通过面部识别系统辨别射杀对象,迅敏将其击毙。尽管只是一个演示,但这款“杀人机器人”迅速引发广泛关注。
关于是否允许研发自主武器,这个问题争议不断。支持的一派是这么发表意见的:
美国陆军训练及战略思想司令部长肯尼斯·罗斯(Kenneth Rose)列举了自主武器的优势:“机器不会劳累,他们不会闭眼,他们不需要在下雨时躲在树下或和朋友交谈…人类在 30 分钟后注意力就会急剧下降,但机器从来不会感到害怕”。
从技术角度来说,有朝一日有可能设计出一种自主武器系统,完全能够遵守攻击中的区分、比例和预防原则。
军事应用中将会使用更多人工智能机器人,这是不可逆的趋势,它们有能力执行更多困难的任务。
在要求速度和精度的情况下,军用机器人的神经网络的机器图像分类器已经能够在一些基准图像识别测试中击败人类。
这些优势表明,在战争中的某些情况下,机器可能会胜过人类,比如迅速确定一个人是否持有武器。
机器还可以追踪人体的动作,甚至可以捕捉潜在的可疑活动,比如一个人可能是一个隐藏了武器,这类反应比人类更快,更可靠。
责任编辑:吴一波