8月22日,英特尔公布了即将推出的两款针对大型数据中心设计的处理器,这是该公司首次披露高性能人工智能加速器产品。
这两款芯片是Nervana神经网络处理器系列产品,其中一款用于训练,另一款用于推理,这是人工智能算法形成的两个关键环节。2016年8月,英特尔收购美国创业公司Nervana Systems,随后将其与自身业务整合,并追加3.5亿美元的投入,用于研发和自身产品匹配。
不仅如此,英特尔还表示,这些产品是近两年在投资了以色列人工智能公司Habana Labs和NeuroBlade后推出的。Habana Labs的解决方案Goya性能优于目前数据中心常用方案的1到3个数量级,而NeuroBlade的优势在于降低成本和功耗。
与通用芯片不同,人工智能专用加速器强调的是适当的时间提供给合适的智能。英特尔全球副总裁兼人工智能产品事业部总经理Naveen Rao表示,针对复杂的人工智能应用,数据中心和云端需要提供通用计算以及专门的加速。
英特尔披露用于训练的NNP-T可以进行定制,以便加速各种负载,而用于推理的NNP-I利用10纳米制程技术提升了每瓦性能。事实上,这些产品将与谷歌的TPU、英伟达以及亚马逊AWS自研芯片竞争。
与专为谷歌机器学习框架TensorFlow设计的TPU不同,英特尔的产品支持百度、Facebook以及谷歌等提出的主流机器学习框架。2019年7月,Naveen Rao曾在百度人工智能开发者大会上宣布,为了提升训练模型速度双方合作开发处理器产品。此次英特尔发布产品时还宣布,Facebook正在使用这些产品。