看好人工智能芯片 亚马逊、百度、微软齐布署FPGA

 

在2017年的Hot Chips大会上,亚马逊(Amazon)、百度、微软(Microsoft)等三家全球最...



在2017年的Hot Chips大会上,亚马逊(Amazon)、百度、微软(Microsoft)等三家全球最大的资料中心业者,不约而同发表了最新的FPGA部署计划。其中微软资料中心的FPGA部署规模,原本就是全球第一,而即将推出的Brainwave机器学习平台,可望在微软既有的FPGA基础上打造出更快速实时的云端人工智能(AI)服务。

根据富比士(Forbes)报导,FPGA加速在超大规模资料中心所扮演的角色越来越重要。微软资料中心内,有大量的运算架构、Bing、Azure应用,都借助了FPGA的加速能力。当亚马逊与百度专注在透过云端提升FPGA的可取得性与可编程性时,微软则是为发展机器学习推出了Project Brainwave加速平台,以及多个人工智能API,以便让其它企业能更容易从事人工智能的开发应用。

微软Project Brainwave共包含三个部分。第一个部分是汇集了大量加速器的高性能系统架构。高带宽、低延迟的连结架构,让微软能够灵活分配资源,使利用率达到最大化;第二个部分为利用Altera 14纳米FPGA编写合成的软DNN处理器(DPU);第三部分为部署神经网络模型所使用的编译器与运行环境。



就像Google的TPU与TensorFlow一样,微软也需要专属的CNTK硬件平台,才能使神经网络运行达到最佳化。而微软宣称CNTK平台的性能表现明显优于TensorFlow,特别是在自然语言处理上。

Google藉由全客制化ASIC芯片,以较低的单位成本取得了更高的机器学习加速性能,但客制化芯片开发过程本身需耗费大量时间及成本,而所打造芯片功能也是固定的,因此较无法适应算法的快速变革。

为了避免这个问题,微软于是采用FPGA发展软DPU,提升硬件的灵活性。FPGA在机器学习的一大优势,在于它能够针对深度神经网络特定某层的需求,调整精度。最早使用降低精度这种做法的,是NVIDIA的Pascal与Volta GPU,而微软则是透过FPGA将它发扬光大。

此外,神经网络设计者能透过FPGA,以最低的位元数调整网络每层的模型,藉此改善系统性能与效率。

微软的FPGA策略让他们得以透过客制化硬件,持续追踪软件的最新发展。另一方面,Xilinx、百度、亚马逊也正联手推动FPGA的普及。百度最新发表的XPU平台以弹性化的配置结合了CPU、GPU与FPGA,提供了一个更平易的FPGA编程管道。亚马逊则是在AWS的F1加速平台上,采用了Xilinx的FPGA加速技术。

关注DIGITIMES,产业资讯一手掌握


    关注 DIGITIMES


微信扫一扫关注公众号

0 个评论

要回复文章请先登录注册