人工智能的最大挑战是道德问题 它们的行为动机无法确定

人工智能无处不在,并且还会在以后漫长的岁月中影响我们的生活。在网上购买什么样的书籍?购买哪一趟航班?工作申请是否成功?是否收到银行贷款?甚至癌症治疗方法的选择?这些都或多或少地受到人工智能的影响。
 
人工智能的最大挑战是道德问题 它们的行为动机无法确定-DVBCN
 
所有的这些,甚至更多的事情,在很大程度上可以由复杂的软件自动决定。人工智能在过去几年中取得了令人瞩目的巨大进步,并且人工智能可能会使我们生活的许多方面变得更好。
 
在过去的几年中,人工智能的兴起是不可避免的。大量资金投放在了人工智能的创业公司中。许多现有的科技公司,包括像亚马逊、Facebook和微软这样的巨头,都已经开设了新的研究实验室。可以毫不夸张地说,软件就意味着人工智能。
 
有些人预测人工智能兴起带来的影响可能会像互联网带来的震撼一样,甚至震撼更大。我们问一个技术专家小组,这个迅速变化的、充满完美机器的世界会给人们带来怎样的影响?值得注意的是,几乎所有的回答都集中在道德问题上。
 
要确保每个人都受益——Google研究主管Peter Norvig
 
对于Google研究主管和机器学习先驱的Peter Norvig来说,在数据驱动的人工智能技术成功的背后,我们应该考虑的关键问题是:如何确保这些新系统能够改善整个社会,而不仅是帮助那些控制它的人。“在实际任务中,人工智能已被证明非常有效。例如标记照片,理解语言,书写自然语言,甚至可以帮助识别疾病。”他说,“现在面临的最大问题是确保每个人都受益于这项技术。”
 
最大的问题是,软件的复杂性通常意味着,不可能确定人工智能行为的动机。基于大规模的称为机器学习的成功技术,你不可能打开人工智能的外壳来看看它究竟是怎么工作的,所以我们必须信任它。因此,我们需要找到新的方法来监测或审计这个在很多领域都极其重要的人工智能。
 
哈佛法学院互联网法教授Jonathan Zittrain说,计算机日益复杂的系统可能会阻碍系统得到它们应当得到的审查,这是十分危险的。“我担心,在技术的帮助下,我们的系统将变得更加复杂和紧密连合,人类的可操控性会下降。”他说。 “如果我们设置它并忘记它,我们可能会后悔系统自己进化成的样子,并且这里没有任何一个方面需要考虑道德伦理问题。
 
这是我们小组内其他人关注的问题。曾经是美国海军第一位女战士飞行员之一,现在是无人机专家的北卡罗来纳州杜克大学人类和自治实验室主任Missy Cummings问道,“我们将如何证明这些系统是安全的?”
 
人工智能需要监督,但我们尚不清楚该如何实现这一过程。“目前,我们没有人们能够普遍接受的方法,”Cummings说,“并且没有用于测试这个系统的行业标准,因此这些技术难以被广泛使用。”
 
缺少测试人工智能的行业标准,难以广泛应用 ——Missy Cummings,杜克大学人类和自治实验室主任
 
然而在快速发展的社会中,监管机构发现自己经常在追随时代的发展。在许多关键领域,例如刑事司法系统和医疗保健部门,公司们已经在探索人工智能在假释或诊断疾病等方面所发挥的作用。但是,把决策权交给机器的话,我们将面临风险。谁能确保这个系统在每个案件中都做出了正确的决定?
 
微软研究院的主要研究员Danah Boyd说,正被写入这些系统的价值观存在着严重的问题,谁会最终对这些系统负责? 她说:“监管机构、公民和社会理论家们越来越希望看到这些技术是公平和道德允许的,但是这些“公平”或“道德”的概念却十分含糊不清且难以界定。”
 
一个充满伦理问题的领域是工作场所。人工智能会让机器人做更加复杂的工作,并取代更多的人类工作者。例如,为苹果和三星提供装配服务的富士康科技集团宣布,它将使用机器人替换6万名工厂工人。位于德国科隆的福特工厂将机器人与人放在一起工作。
 
此外,增加自动化对就业有很大的影响,它也会对人的心理健康产生不利影响。“是什么让人的生活变得有意义?有三件事:有意义的人际关系、对兴趣的热情以及有意义的工作。”生物伦理学家及Barack Obama的前医疗顾问伊泽克尔·伊曼纽尔说,“有意义的工作是一个个体很重要的一部分。”他认为,在工厂关闭、失业高发的地区,自杀、药物滥用和抑郁症的风险会增加。
 
我们对伦理学家的需求也在增加。“公司将遵循市场需求而发展,这并不是一件坏事。但我们不能依靠市场需求的准则,因为我们需要站在道德的立场来处理问题。”在麻省理工学院专攻法律和伦理学的Kate Darling说,“这有助于建立规章制度。我们已经在周围的生活中见过这样的例子。每当我们有一种新技术产生的时候,我们就要想出如何管理它。”
 
希望技术是公平和道德的,但“公平”和“道德”的概念却含糊不清。——Danah Boyd,Microsoft Research
 
Darling指出,很多像谷歌这样的大公司已经成立了道德委员会,以便监控他们人工智能的开发和部署。这里有一个更常见的观点:“我们不想扼杀创新,但我们可能要建立一些制度来限制它某一部分的发展。”
 
对于Google的道德委员会成员的详细信息以及它实际上所做的工作,我们知道的信息仍然很少。但去年9月,Facebook、Google和亚马逊形成了一个联盟,旨在研究人工智能隐私安全的相关问题的解决方案。 OpenAI是一个致力于开发和促进人工智能开源以满足所有人利益的组织。谷歌的Norvig说:“机器学习必须公开研究,并通过开放的出版物和公开源代码进行传播,这样我们就都可以从中获益。”
 
如果我们要发展行业和道德标准,并充分了解所涉及的问题,那么对伦理学家、技术专家和企业领导者的信任是很重要的。我们可以利用人工智能,使人类在已经做得很好的时领域做到更好。 “我们不用担心科幻小说里对机器人占领人类的描述,而应把更多的注意力放在如何使用技术来帮助人类反思和决策,而不是完全取代我们自己的工作上。”Zittrain说。
相关文章
四川省:2027年算力总规模达到40EFLOPS,5G基站总数达32万个
四川省:2027年算力总规模达到40EFLOPS…
【破局】这家广电有线省网将率先成立人工智能(AIGC)实验室?
【破局】这家广电有线省网将率先成立人…
中国电影电视技术学会发布《AIGC媒体应用产业图谱(1.0版)》
中国电影电视技术学会发布《AIGC媒体应…
以数实融合创新未来,探访泉城看得见的数智化新进展
以数实融合创新未来,探访泉城看得见的…
工信部陶青:5G行业应用覆盖到76个行业大类,间接带动总产出约14万亿元
工信部陶青:5G行业应用覆盖到76个行业…
工信部赵志国:全国已累计建成207个千兆城市,GAI服务大模型注册用户超6亿
工信部赵志国:全国已累计建成207个千兆…
我还没有学会写个人说明!

24小时排行

  • 暂无文章