华为“达芬奇”能否改写数据中心AI芯片格局
最近,华为“达芬奇计划”曝光引发各方关注。该计划有两个焦点,一是将AI带入华为所有的产品和服务中,二是眼下要开发用于数据中心的AI芯片。应该说,将AI带入所有华为产品与服务中是一个长远的计划,而眼下关注的焦点是华为要研发数据中心的AI芯片。从手机芯片到数据中心芯片,华为芯片的未来之路会如何走?在英伟达已占据数据中心AI芯片主导话语权的背景下,其他厂商在数据中心AI芯片上机会何在?华为的入场,将会对数据中心AI芯片格局带来什么样的变数?
“达芬奇计划”曝光
从The Information的爆料以及相关人士透露的信息来看,这个由华为副董事长、华为海思的董事长徐直军领导的,内部代号为“达芬奇”(Project Da Vinci)的项目,宗旨是要将AI的能力注入到华为的每一个产品与服务中,眼下要攻破的堡垒是做出能够支持云中的语音和图像识别等应用的数据中心AI芯片。
《中国电子报》记者就达芬奇计划向华为海思以及华为数据中心业务有关人士求证,都没有获得更多信息。一个信息透露,华为有可能在全连接大会(“2018 HUAWEI CONNET”)上正式公布达芬奇。
华为要研发数据中心的AI芯片,这是重磅信息。华为是中国最有实力做芯片的公司,无论是从人力、物力、财力,还是技术积累和市场影响力来看,都如此,华为在手机芯片上已经向世人证实了这一点。
外界一直期望华为在手机芯片之外的领域,包括桌面、服务器、数据中心等有更大作为,带领中国芯片真正突围,而此刻人们看到华为终于出手。
赛迪智库集成电路研究所副所长林雨在接受《中国电子报》记者采访时表示,从目前达芬奇已经透露的信息来看,华为不仅仅要做数据中心AI芯片,这个计划还包括了边缘计算,所以“端”的AI芯片也应该是其重要部分。
目前华为已经在其手机端进行了尝试,从最新的荣耀到MATE系列,都在将AI元素不断放大。而此前华为在手机端AI芯片能力,是通过与寒武纪合作集成TPU单元来构建的。
经过手机端的小步试水,华为已经尝到了甜头。在手机上打出AI牌之后,让华为手机、华为手机芯片先于苹果和高通发声,赢得了先声夺人的话语权。而下一步,华为希望在更多的产品和服务领域推进AI。
AI对于语音、图像、视频数据的处理有着天然的优势。这也是为什么华为要将接下来AI注入的重点,放在“平安城市”与“智慧城市”、“运营商业务”等的重要原因。
在平安城市中有大量的摄像头要采集数据、有大量的视频和图像数据需要快速处理,来“抓”到问题。将远端摄像头实时采集的数据,利用人工智能算法,能够快速发现异常、抓到逃犯,能够进行交通城市疏导,构建更智慧、更平安的城市。数据显示,目前华为在欧洲、拉美、非洲和亚洲的90多个国家提供了“平安城市”解决方案,助地方政府收集和分析监控摄像机的数据。
当然不仅仅是在平安城市的解决方案中,华为要注入AI方案的领域非常多,从运营商网络升级与管理到云计算数据中心业务,AI都大有作为。华为表示,正计划将更多的AI能力引入全球电信网络,华为的运营商客户正在升级基础设施,为即将推出的更快的5G网络做准备。华为正在开发新的设备和软件,利用电信基站创建更智能、支持AI的网络,这些基站可以自行检测和修复问题,同时通过预测无线数据流量的波动,自动调整其运营。
而在这些方案中,需要AI芯片。此前华为在数据中心是通过大量集成英伟达的GPU来实现的,接下来,华为想要自己做,因为华为看到了AI芯片的巨大机会,英伟达股价的暴涨以及收入剧增,让所有厂商都看到了其中的机会。英伟达数据中心收入2017财年是8.3亿美元,2018财年是19.32亿美元,增长了133%。
挑战英伟达?
目前,英伟达的GPU在深度学习算法AI芯片市场上占据几乎垄断的地位,它是现有的方案中,可选的最适合进行AI运算的方案,但是它并非无懈可击。
即便是英伟达最为厉害的Quadro GV100,可提供每秒7.4万亿次浮点运算的双精度性能、每秒14.8万亿次浮点运算的单精度性能、以及每秒118.5万亿次浮点运算的深度学习性能。但依然有评价称,其无法满足AI计算需求。在深度学习的模型训练中,面对海量的数据,人们对计算能力的需求几乎是无限的,TFLOPS仅仅是入门,科学家们还在考虑如何制造和使用性能达到PFLOPS甚至EFLOPS、ZFLOP性能级别的设备,更快的性能带来了更快的计算速度,也带来了更高的效率来完成计算并获得结果。
英特尔中国研究院院长宋继强曾对《中国电子报》记者表示,AI芯片的焦点在于功耗、性能与效率,如何以更低的功耗带来更大计算能力和更高的效率,是目前业界探索的焦点。去年年底,中国的比特大陆也宣布将进军数据中心AI芯片。比特大陆经理刘志强对《中国电子报》记者表示了与宋继强类似的观点,人工智能才刚刚开始,机会还有很多,对芯片行业来说,就是提供高性能、低功耗的产品。
英特尔2016年8月收购了AI芯片创业公司Nervana,基于此来打造英特尔的AI专用芯片“英特尔Nervana神经网络处理器”(简称NNP),英特尔表示,和GPU解决方案相比,Nervana在未来三年将把训练一个深度学习模型的时间减少100倍。
英特尔的NNP与GPU相比能够将性能提升100倍,那么其他公司同样有机会在新的道路上探索出优于GPU的可能性。
谷歌的专用AI芯片第三代也已经问世,谷歌CEO桑达尔・皮查伊(Sundar Pichai)称,当人们使用大量第三代TPU时,它可能会创造庞大计算能力。“每个芯片群(pods,包含多个TPU3.0芯片)的性能比去年版本强大8倍以上,计算能力远超100petaflops(每秒千万亿次浮点运算)。”皮查伊称。作为对比,包含16颗英伟达最新GPU的芯片群的计算能力为2petaflops。除了英特尔、谷歌,微软、亚马逊等同样向AI芯片发起了进攻。
有数据显示,2017年数据中心AI芯片的市场规模是15.6亿美元,而年增速将是75%,到2022年将达到256亿美元,其中训练芯片182 亿美元,推断芯片(除CPU以外)74亿美元。训练芯片市场已出现高速增长,预测推断加速器的需求将于今明两年爆发。
基于这样的市场变化、基于这样的厂商格局,华为进入AI芯片并不难理解。如果各家巨头都在AI芯片上要“撕开”新口子,华为也要来“撕”就是非常自然而然的事情。华为不希望在数据中心AI上过度依赖于英伟达,在中兴事件爆发之前,华为就一直坚持自己要有核心技术,当AI市场全面爆发,华为必须在AI芯片上有所作为。
林雨认为,华为在数据中心端想突破英伟达的市场封锁,困难在于英伟达已经在AI产业生态方面有了全面布局,例如他们不仅有自主的芯片,还在开源架构、软件等方面具有技术优势,而这些核心技术生态恰恰是国内企业所欠缺的。但是华为在下游应用方面具有市场优势,因此会比较便于形成下游用户生态,这是华为在数据中心侧发展AI芯片的优势。在边缘计算侧,目前竞争格局还没定型,因此部分国内厂商(如深鉴科技、寒武纪、华为等)的机会很多,并且国内企业在移动监控领域的市场优势比较强,英伟达在该领域对华为的压倒性优势并不十分明显。
关于软件与生态,目前看起来可能会是华为的短板,但是其在手机芯片上的试水,还是让人们看到了其快跑的能力。目前华为以NPU为基础,在移动端构建生态圈已经聚集了45万开发者。应该说,数据中心的AI芯片是一场硬仗。
英特尔很早就看到了英伟达的GPU在数据中心市场的强劲发展势头,三年前收购了Nervana,但英特尔新的NNP芯片出货时间却一再推迟,最早的时间表是到2019年上半年才能出货。英特尔尚如此,华为能够出其不意地快速交出答卷吗?我们拭目以待。
免责声明:本文仅代表作者个人观点,与中创网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。