j9九游会导航|官网首页

j9九游会导航|官网首页

英特尔甩出视觉推理新杀器,功能超英伟达!大秀首款云端AI商用芯

### admin888 35

11月13日音讯,北京工夫昔日清晨2点,英特尔在旧金山举行2019人工智能峰会,推出代号为Keem Bay的下一代Movidius VPU,可用于边沿媒体、盘算机视觉和推理使用,并方案于来岁上半年上市。

别的,英特尔还在现场展示了Nervana神经网络处置器(NNP),并正式宣告商用。这是英特尔的NNP研发项目对外宣告三年后,正式开端商用交付。

别的,英特尔副总裁兼人工智能产品奇迹部总司理Naveen Rao、英特尔物联网奇迹部副总裁兼视觉市场和渠道部分总司理Jonathan Ballon在会上宣布演讲,介绍了英特尔最新的AI产品与相干技能停顿。

Naveen Rao在现场演讲中谈到,随着英特尔AI产品的更新与公布,AI办理方案的产品组合也将失掉进一步的提拔与优化,而这也无望在2019年发明凌驾35亿美元的营收。

一、Movidius Myriad:推感性能提拔10倍, 能效为竞品6倍

j9九游会先来说说最新的分量级产品——英特尔Movidius Myriad视觉处置单位(VPU),代号为Keem Bay,其颠末优化可在边沿端举行事情负载的推理。

功能方面,与上一代VPU相比,Keem Bay的推感性能提拔了10倍以上,能效则可以到达竞品的6倍。

同时,英特尔还介绍到,Keem Bay的功耗约为30W,比英伟达的TX2快4倍,比华为海思的昇腾310快1.25倍。

Jonathan Ballon在现场提到,该芯片拥有新的片上存储器架构。同时,Keem Bay提供的Tops推理量是英伟达Xavier的4倍,在充实使用的状况下,该芯片可协助客户取得50%的分外功能。

“与同类竞品相比,Keem Bay的功能比GPU的功能更好,不但功率、巨细和本钱都完成了肯定水平的低落,并且还进一步增补了j9九游会完备的产品、东西和办事产品组合。”Jonathan Ballon增补说到。

别的,Keem Bay方案将于2020年上半年上市。

二、Nervana系列:已投入消费,并正式交付商用

往年,英特尔在面向AI推理和AI训练范畴,相继推出了NNP-T和NNP-I两款Nervana神经网络处置器,专为大型数据中心而设计。

同时,Nervana神经网络处置器也是英特尔研发的首个针对庞大深度学习的公用ASIC芯片,次要提供应云端和数据中心客户。

实践上,英特尔早在2016年就已对外提出将启动Nervana神经网络处置器的项目研发。但是,英特尔在客岁的AI大会中也尚未揭开该系列处置器的奥秘面纱,直到往年才面世,如今终于正式交付商用。

Naveen Rao说,作为体系级AI办理方案的一局部,Nervana神经网络训练处置器现在曾经投入消费,并已完成客户交付。

此中,NNP-T接纳台积电16nm制程工艺,拥有270亿个晶体管,硅片总面积达680平方毫米。

使用上,它占有高度的可编程性,并支持一切主流深度学习框架,如TensorFlow、PYTORCH 训练框架和C++深度学习软件库等。

同时,它还可以完成盘算、通讯和内存之间的均衡,并且不论是针对小范围聚集,照旧最大范围的pod超等盘算机,它都可以举行近乎线性且极具能效的扩展。

另一方面,NNP-I基于英特尔10nm Ice Lake处置器架构,异样支持一切的主流深度学习框架,在ResNet50上的服从可达4.8 TOPs/W,功率范畴为10W到50W之间 。

别的,它具有高能效和低本钱,能将传统的AI和多个引擎联合,完成高服从的AI推理事情负载,合适在实践范围下运转高强度的多形式推理。

在Naveen Rao看来,随着AI推理盘算不停开展,并渐渐向智能化边沿转移,英特尔的AI竞争上风进一步分明。

“j9九游会十分自满,能成为客户面前的算力支柱,j9九游会也将继续用创新和技能来协助客户结构AI。”Naveen Rao说到,现在,英特尔的很多客户已将其AI办理方案使用于各个层级的设置装备摆设,摆设在当地数据中心和超大范围私有云办法中。

值得一提的是,这两款Nervana神经网络处置器次要面向英特尔的前沿AI客户,如百度和Facebook等,并针对这些企业的AI处置需求举行定制开辟。

三、DevCloud:用于边沿设置装备摆设摆设与测试

Naveen Rao说,停止现在,英特尔在无人机、呆板人和主动驾驶等设置装备摆设的边沿盘算方面,已完成20%的同比增加。

现在年,在边沿AI方面,英特尔推出了DevCloud for the Edge。

它与OpenVINO东西包联合利用,可退一步发职员在购置硬件前,利用现有的东西和框架,收费测试和优化OpenVINO中用于英特尔硬件的模子,比方CPU和FPGA等,进一步协助开辟职员对边沿设置装备摆设举行AI摆设和测试。

Jonathan Ballon在现场演讲中也提到,随着DevCloud for the Edge的公布,客户将能利用英特尔在冬季推出的Deep Learning Workbench东西举行建模和仿真,并可收费将其摆设于开辟云中的种种硬件设置装备摆设。

实践上,早在六个月前,DevCloud for the Edge的beta版本就曾经推出,停止现在曾经有2700个客户在利用。

另一方面,OpenVINO支持从CPU、GPU、FPGA和英特尔Movidius神经盘算棒等一系列深度学习减速器。

同时,该东西包在往年早些时分已举行更新,扩展到了盘算机视觉使用之外,支持语音和NLP模子。

四、AI已成紧张商业,继续强化至强AI推感性能

现在,在深度学习的推理和使用方面,都必要非常庞大的数据、模子与技能。

而英特尔的至强可扩展处置器作为面向业界大局部企业和构造的紧张平台,已然成为英特尔在推进AI商业开展的分量级产品。

因而,英特尔也将持续经过矢量神经网络指令(VNNI)和深度学习减速技能(DL Boost)等功效优化并改良该平台,以在数据中心和边沿摆设中进一步提拔它的AI推感性能。

在Naveen Rao看来,随着人工智能的进一步开展,现有的盘算硬件和内存都将在将来到达临界点,同时公用型硬件的紧张性也愈加分明。

因而,对英特尔来说,使用AI技能来提拔商业效果,必要进一步推出涵盖硬件和软件的多种技能组合。

结语:增强云端至边沿端AI结构,注意体系级开展

j9九游会可以看到,在各家公司将AI开展道路驶向体系级偏向确当下,往年英特尔的AI峰会从AI硬件至软件,从云端到边沿端都举行了简直全方位的摆设与更新。

分外是在现在AI事情负载越来越庞大的情况中,市场对公用AI芯片的需求愈发急迫,英特尔推出的一系列针对深度学习范畴的的芯片,不但更深度地打入AI芯片市场,同时也为当下AI芯片的产品研发和创新提供了新思绪。

而将来,随着AI行业的进一步成熟与发酵,英特尔又将为行业带来什么样的惊喜,j9九游会还需拭目以待。