2018年,AI将成为各大手机公司的标配需求,手机端庞大的一手数据将会利用起来,而只有终端AI硬件能力普及后,AI应用才有可能百花齐放,AI生态才有可能真正成熟。周晨表示,海思的定位就是平台算力的提供者,同时会提供SDK让开发者来运行自己的应用和算法。
从算法到算力,资本圈热点转移
2017年,在资本圈和媒体大V们讨论得热火朝天,在各个AI技术论坛频频召开的时候,消费者一头雾水。
笔者百度了一下“AI”,发现了一部大导演斯皮尔伯格拍的电影,电影里的AI就是一个除了内部构造,跟人没有任何区别的小男孩。
于是老百姓们恍然大悟,哦!原来AI就是机器人儿啊?
还有一部电影就是《黑客帝国》中的母体Matrix。这部电影里的AI是一个巨大的虚拟世界的大脑,整个物理世界都变成了数据,人类自己也变成了一串串代码。
这两部电影其实揭示了AI的两个表现形态:云端和终端AI。
2016年,资本圈关注的大多还是专注于云端算法的公司,比如商汤、旷视、云从、依图四家算法公司,李开复称他们为人脸识别的“四个独角兽”。
2016年,Intel收购了Nervana、Altea,谷歌在I/O大会发布了“TPU”,高通开始研发神经网络芯片,而Nvidia股价因为AI概念而飙升。
2017年,资本圈开始关注地平线、深鉴科技、寒武纪、云天励飞四家AI芯片公司。
资本的嗅觉是很灵敏的,AI作为一种技术其实已经有了几十年的历史。组成AI的三大要素包括算法、算力、数据。算法和数据的积累和演进已经持续了很多年,而终端算力的普及则刚刚开始。从运算发展的路径来看,一开始都是靠算法解决问题,因为那时候计算力有限。所以资本重点关注算法公司。现在计算力上升,算法的差异被弥补掉了,于是资本开始关注提供算力的公司。
虽然AlphaGo算力惊人,但这是在使用了上千个CPU和数百个GPU的基础下实现的,下一盘棋的电费就高达3000美元,相当耗能。
手机是目前最普及的个人移动终端,如何让低功耗的智能手机能够和AlphaGo一样“聪明”?
为何华为海思能率先推出手机AI芯片?
手机行业最先行动的是两个公司——苹果和华为。iPhone X的A11中打在了神经网络模块神经引擎(Neural Engine),而海思的麒麟970则与寒武纪合作搭载了NPU(Neural-network Processing Unit)。凭借海思的订单,寒武纪在2016年就已经实现盈利。
“我们有幸走到了这件事(AI)的前面,我们的麒麟970跟iPhone X的A11是真正在终端侧‘唯二’的推出产品的公司。”华为海思麒麟芯片市场总监周晨对《电子工程专辑》记者表示。相比苹果和三星的AI芯片,华为海思是用硬件的方式来加速,“我们对于开放的事情还是有差异的,苹果把这个能力主要用在FaceID,我们是通过HiAI全面开放给开发者,开发者可以用到手机业界最强的AI推理能力。”周晨说。
作为手机行业的标杆,这两家公司之所以能够率先推出AI手机芯片,首先当然是因为各自掌握着芯片设计能力。其次是因为他们的芯片部门或公司只需要服务于一家客户。
“实际上AI的项目我们2年前就启动了。因为我们是in house的芯片公司,只需要服务于华为这个品牌。我们可以很清楚的知道终端的需求是什么,从而针对性的做出产品和规划设计。”周晨认为,对于公开市场的芯片公司,考虑的逻辑是不一样的。因为芯片里面加任何功能都是成本,所以纯芯片公司要考虑到自己的客户对AI的需求会是怎样,因此会偏保守。未来在新技术的采用上,类似于苹果、海思这样的in house会更加激进,这可能是海思能够在业界率先推出AI手机芯片的重要原因。
此外与寒武纪的合作也是海思能够迅速推出AI芯片的原因。“在这个时间点上,和寒武纪的合作是最好选择。我们要确保我们选择最好的方式,未来有的IP我们会自己做,有的可能寻找更好的合作伙伴,这个都是动态变化中。”
从云到端,AI芯片迭代如何满足算法变化?
当然,如果你认为苹果和华为在手机芯片中搭载“AI”单元模块仅仅是为了寻找新的卖点,作为营销噱头多卖手机,那你就图样了。从云端到终端确实能带来真正的好处,比如功耗和成本的降低,效率的提升等。
2018年的CES展印证了AI向终端转移的趋势,以前很多基于概念的应用开始真正以产品和服务的形式落地了。从CES展出的各种AI产品来看,大致分为三种:第一类是应用在汽车上的自动驾驶方案,目前主要是Nvidia在该领域布局。第二类是围绕语音类的助手服务,包括智能音箱等。第三类则是图像识别类的产品,有大量的初创公司都在进入,开发类似于安防监控、直播、视频特效等新的应用。
周晨认为在云端进行AI运算的方式,如增加模型的大小和层数并不是真正的方向。AI开始从云端往终端迁移会把运算量和网络大小减少100倍,也会减少对网络带宽的需求。“随着算力的提升和算法的优化,最后会形成一个很好的甜蜜点。”周晨表示,在今年CES期后他去硅谷开会,发现业内都在讨论On device。开始做AI的公司多如牛毛,光是芯片公司都很多。
“终端的性能现在是瓶颈,大批公司虽然水平参差不齐,但是都在往芯片端走,如何解决兼容性问题,如何让算法更流畅,成为大家关注的焦点。”周晨表示,从2017年的数据来看,AI的算力云端占了95%,终端只占5%,这两点的巨大差距会带来很大的成长空间。
当然,由于目前的AI算法更新升级速度很快,如何满足一定的变化性呢? 周晨认为,未来比较合适的架构应该是CPU+硬件加速器的做法。对于海思来说,因为是一家硬件平台公司,自然更偏向用硬件的方式来做,提供通用性的加速器,从而满足大部分的算法需求。目前跑算法大概有两种方式:一种是用CPU跑纯软件,另一种是通过硬件加速器来固定算法。此外,从AI运算的需求本身来看,大部分是计算密度要求很高的行为,也需要用非常高效的硬件方式去做。周晨认为,从芯片的发展历史来看,很多算法一旦稳定成熟下来就会固定用硬件来做。
“我们自己有GPU、DSP资源,把异构这件事做好以后,对于第三方的未知应用都尽可能加速到。因为手机是开放型平台,所以我们必须这样做。”周晨表示,海思的定位就是平台算力的提供者,同时会提供SDK让开发者来运行自己的应用和算法。“再往上可能华为在手机端会提供一些业务级的接口,这些接口不需要开发者自己来做算法,比如卡路里识别,APP只要直接调用接口就可以了。”
下一代AI芯片怎么做?
对于海思的下一代AI芯片,周晨没有透露太具体的规格或参数。但他表示,后面两代的产品定义经明确,基本上有几个方向不会变:第一是算力会持续上涨。第二是专注在通用的AI运算平台上,持续将AI运算能力开放给更多开发者。第三是AI芯片的工艺会越来越先进,更新速度可能会比摩尔定律还要快。
“当我们把算力释放出去以后,可能会有一大票应用能力提升。这会产生正向循环,会有越来越多的开发者做一些新的好的体验。”周晨表示,AI本身是一种技术,但是未来的价值会体现在有多少开发者来开发出相关的应用。
目前业界有一种观点,认为AI的深度学习需要数据来喂养,因此拥有越庞大数据量的互联网公司,如BAT会在未来AI领域占据核心优势。对于这个说法,周晨认为海思目前在算力和算法上其实都具有优势,至于数据方面也不是问题。
第一个原因是算法本身在升级,机器学习本身的效率在提升。“深度学习的方式跟人脑的学习方式差别还是很大的,比如小孩看几张猫的照片就能认识什么是猫,不需要看十万张照片来学习。”周晨认为,人脑其实是在做更高一层的算法,提取更高维度的特征。因此当算法升级后,将不再需要那么海量的数据来做深度学习。
第二个原因是终端已经成为人的计算中心,手机上产生的数据才是真正一手、新鲜的数据,而云端的数据可能是经过压缩或精简的二手数据。
周晨认为,2018年后,AI将成为各大手机公司的标配需求,手机端庞大的一手数据将会利用起来,而只有终端AI硬件能力普及后,AI应用才有可能百花齐放,AI生态才有可能真正成熟。
华为“Hi AI”是什么? 20180206-hisilicon-2 对于芯片公司来说,如何满足AI不同算法应用及生态圈的差异化需求成为难点和重点。“海思还会提供一个Hi AI架构,我们也会有一个定期举行的Hi AI的公开课,”周晨最后表示,华为日前针对工程师举行了“华为Hi AI能力开放公开课” ,将帮助尝试投身人工智能领域的企业和开发者,提升技术人员竞争力,促进行业技术的提升,共同推动人工智能生态的发展。 20180206-hisilicon-3 什么是华为AI呢?据了解,HiAI移动计算平台开放三层的能力,分别为云端能力开放(Huawei HiAI Services)、端侧应用能力开放(Huawei HiAI Engine)和端侧芯片能力开放(Huawei HiAI Accelerator)。
其中,底层Huawei HiAI Accelerator是HiAI芯片能力开放的核心内容,能够快速转化和迁移已有模型,借助NPU的加速获得最佳性能,主要依靠海思麒麟芯片实现。华为HiAI引擎的目标,通过开放应用层API,使能开发者在不懂AI算法的情况下也能开发高质量AI应用,完全聚焦在应用的体验和业务实践上,而不是聚焦在后端大量的模型训练和算法上。
目前在火热的AI领域,更快速的推出高质量AI应用是抢占市场先机的最好手段,本次Huawei HiAI Engine就是通过开放和共享华为自有应用层商用级的AI能力API来使能合作伙伴在未来的竞争中赢得先机,使能华为手机上面的应用都能提供业界最佳的AI体验。因此,Huawei HiAI Engine面向移动终端提供多种AI能力和JAVA应用层接口。