科技大佬达沃斯论道人工智能

数据隐私,AI带来的职业冲击,大公司的垄断,自动化,机器学习……在刚刚结束的2018世界经济论坛年会(达沃斯论坛)上,人工智能相关的议题成为了各界人士讨论的焦点。

随着人工智能的快速发展,当今世界的产业格局和经济发展模式正在被重新书写,如今的人工智能发展处于何种水平?未来它又会给我们的生活和工作带来怎样的影响?

中国成AI领域重要参与国

目前,中国作为人工智能的一个重要参与国,已成为全球人工智能领域的第二吸金地,仅次于美国。

“虽然说顶尖的人工智能专家还是以美国为主,但是由于一大批年轻工程师的崛起,中国的速度远远超过了欧美的总和。在几年内达到和美国共同引领世界人工智能是可以期待的。”创新工场董事长李开复在参加达沃斯论坛期间说道。

李开复认为,除了政策层面人工智能被提上国家议程之外,中国还有一流的理工科教育,并培养了一大批这些领域的杰出年轻人,以及庞大的数据量,最后,还拥有良好的创业氛围和资本的大量投资,基于这几个因素,中国快速直追,在几年内达到和美国共同引领世界人工智能是可以期待的。

科技大佬达沃斯论道人工智能-DVBCN

达沃斯论坛上“Big tech, Big impact” 主题讨论

与他持类似观点的,还有百度总裁张亚勤。他认为,中国的AI领域虽然在人才方面(较美国)落后了一些,但差距正在缩小。而且,中国在技术上具备结构化优势,就规模和资本而言,在科技领域处于领先地位,同时还拥有一个更好的监管环境。

过去的一年,人工智能的发展如火如荼,中国已成为该领域重要的竞争者,并紧追领头羊美国。

根据“乌镇指数”暨《全球人工智能发展报告(2017)》,2000~2016年,中国人工智能融资规模累计达27.6亿美元。其中2014~2016年三年是中国人工智能发展最为迅速的时期。在这三年里人工智能融资规模占总数的93.59%,投资频次占总数的87.22%,远高于以色列和印度。

对于中国在AI领域的参与度,斯坦福大学人工智能实验室主任、谷歌云首席科学家、谷歌AI中国中心负责人李飞飞也直言, “大家公认中国已成为人工智能的一个重要参与国,这里也很大程度上因为政府强有力的支持,国民性的数理文化,和巨大的数据和应用场景。”

多少工作将被AI替代?

在人工智能快速发展的同时,人类的工作也势必会受到影响。这个数字在麦肯锡看来是4亿~8亿。麦肯锡强调说,这并不意味着失业数据会呈现这么大的下滑,而是说很多工作的任务被机器取代之后,工作的时间和待遇都会大幅度下滑。很多人想换个好点的工作,但他们却又没有足够的才能。而才能的要求(因为AI能力提升)会越来越高,甚至让很多人对升级无望。

对于这一点,李开复也发表了自己的见解。他认为,未来重复性的工作岗位被取代的可能性较大,有些领域会增加就业机会,有些领域则会减少,整体还是以减少为主。那些重复性较高的工作,最终是可以完全被AI取代的,例如生产线的工人、客服、电话销售甚至一些借贷决策员、银行柜员、中介等工作,这些职业可能在未来的十五年会逐渐消失。然而,像教师这种职业未来不可能被AI取代,因为AI能减轻教师工作中重复机械化的任务(比如阅卷、点名),从而让老师们真正释放出来去关注学生、教学互动。因此,无论是企业的层面还是在政策层面,都应该更早地开始考虑,怎样去创造那些不会被人工智能取代的工作。

张亚勤在达沃斯论坛上的“Big tech, Big impact” 主题讨论也谈及,AI确实将会取代一些工作,但不是摧毁它们,他预计,这甚至会创造更多“体面”的工作。

科技大佬达沃斯论道人工智能-DVBCN

IBM CEO Ginni Rometty

数据隐私

AI+正逐步取代互联网+,成为各行业追逐的新的增长点,作为其中关键的新型“石油”,各行各业也正在不断拓宽大数据的应用范围,政府和公司间又将怎样携手去解决正面临的数据问题?

2015年诺贝尔经济学奖得主、普林斯顿教授Angus Deaton就提出一个想法,开发一套隐私数据授权交易系统,治理隐私数据侵权问题。

Deaton认为,今天AI巨头利用用户数据获取了巨大利润,而且导致未来用户隐私和财富两空,所以他认为应该能有一套系统,让每个用户拥有自己的数据,选择性授权给AI 或产品公司。

比如说,一个用户可以不在乎隐私,并卖自己的数据给最高的出价者,另一个用户可以只让自己的数据被自己信任的公司使用,另一个用户可以只在搜索引擎里面使用。如果达到这样的境界,垄断型AI公司就很难剥削用户,而且AI公司彼此会更直接竞争,因而降低伤害用户利益的可能性。

IBM CEO Ginni Rometty也指出,在技术的进步中更需要指引,我们要遵守一套数据原则,而且数据永远属于用户或消费者,数据自由流动的前提是安全和隐私得到保护。她认为,“全球政府和企业需要一群数据及安全领域的核心人物来引导这个快速发展的行业。”

机器学习

不久前,DeepMind团队发表了最新论文,提出强化学习算法Alpha Zero,一种可以从零开始,通过自我对弈强化学习在多种任务上达到超越人类水平的新算法,而在达沃斯论坛上,关于机器学习算法,DeepMind 联合创始人兼主管 Mustafa Suleyman表示:“Alpha Zero没有那么神,外界对它有点夸大了。”

他说:“Alpha Zero要想工作,必须满足三个前提:可预测环境(围棋规则)、清晰奖励系统(输赢)、无变数(variability)。也并不是外界说的不受监督,Alpha Zero的监督来自于它的结构和训练环境,这些依赖强化学习的具体方法在现实生活中效果不是很好。在现实生活中我们无法提供模拟器,进行巨量训练来形成算法。”

他预测三五年内,强化学习是完全没法普及应用的,DeepMind团队已经“将目光放到几十年后了”。

Mustafa还说,Alpha Zero本身并不能解决AI对于数据的需求,但在数据生成和模拟上的进步(比如说用真实语音合成、人脸合成,甚至类似Grand theft auto来做自动驾驶的模拟)是有可能在未来自动产生可补充的数据。

李飞飞表示,大家都共同认为今天的人工智能科技还存在大量的局限,尤其是对监督学习和人工赋予knowledge的依赖。

她指出,在机器学习的偏见和偏差话题上,“我们在数据收集和标注的偏差、算法的偏差、算法的可解释性和透明性,以及算法预测的正确应用等方面还有大量的工作要做。这些问题在与人的生命健康和权益方面尤为重要和突出。”

此外,她还认为人工智能还是一个新的领域,只发展了60年左右,人工智能的理想是让机器变得智能,模仿人类智能解决问题,让人类的生活变得更好。李飞飞特别提醒大家,目前AI还不能理解语境、复杂的知识,要识别人类的情绪、感情和动机,也还有很长的路要走。

除了上述三个方面外,关于AI引发的数据偏见以及行业存在的泡沫也被多位参会嘉宾提及。

由于AI的智能水平依赖数据,一旦数据样本不全面,就会造成结果和判断的偏差。一些研究已经显示,随着机器越来越接近于掌握人类的语言能力,它们也在吸收隐藏于语言中根深蒂固的偏见。

针对这一问题,UNICEF创新负责人Erica Koch谈到,AI公司在解决道德上有四个责任:数据的完整性和代表性、算法的公平性、用户对于算法和决策的知情权、用户投诉渠道。她建议采取财务审计的模式,来检视算法、数据、透明度、政策等方面,可以从最危险的领域(比如说无人驾驶)开始,逐渐完善审计制度,从而来执行这样对于大AI公司的监督。

由于AI发展过热过快,也存在AI创业泡沫的担忧。随着蜂拥而至的资本,张亚勤认为,“(AI领域)炒作和泡沫是很多,但人工智能本身是真实的,同时具有变革性,而且就在当下。”

此内容为第一财经原创。未经第一财经授权,不得以任何方式加以使用,包括转载、摘编、复制或建立镜像。第一财经将追究侵权者的法律责任。

相关文章
四川省:2027年算力总规模达到40EFLOPS,5G基站总数达32万个
四川省:2027年算力总规模达到40EFLOPS…
【破局】这家广电有线省网将率先成立人工智能(AIGC)实验室?
【破局】这家广电有线省网将率先成立人…
中国电影电视技术学会发布《AIGC媒体应用产业图谱(1.0版)》
中国电影电视技术学会发布《AIGC媒体应…
以数实融合创新未来,探访泉城看得见的数智化新进展
以数实融合创新未来,探访泉城看得见的…
工信部陶青:5G行业应用覆盖到76个行业大类,间接带动总产出约14万亿元
工信部陶青:5G行业应用覆盖到76个行业…
工信部赵志国:全国已累计建成207个千兆城市,GAI服务大模型注册用户超6亿
工信部赵志国:全国已累计建成207个千兆…
我还没有学会写个人说明!