AI专用芯片火爆

2023-03-01

AI专用芯片火爆

AI专用芯片火爆

1、高通

首先是高通(Qualcomm),身为移动处理器龙头,高通推出了神经处理引擎(Neural Processing Engine;NPE),其开发套件(SDK)可协助开发者优化软件在自家Snapdragon 600、800系列处理器上的AI执行效能,并支持Tensorflow、Caffe、Caffe2等多种常见AI架构。

高通在官网上表示,NPE可应用在影像辨识、场景侦测、相机滤镜套用、影像后制等各式功能中,适合应用的领域更是五花八门,涵盖健康照护、保全等,相当多元化。近期Facebook就开始采用此SDK来加速其手机应用程序执行相片和实时影片AR功能。

2、Google

作为搜索引擎龙头的Google,为了发展机器学习(Machine Learning),自行开发出了TPU芯片,今年也已推出第二代TPU,不过,Google并无意销售此硬件,而是将透过云端服务的形式开放商业用户和研究人员使用。

原本第一代TPU是采用量化整数运算,专注于推理作业,第二代Cloud TPU则支持浮点运算,可用于推理与训练任务,4块芯片组成之Cloud TPU能提供惊人的180TFlops的运算能力,若将多个TPU集成为单一的TPU Pod系统,还能提供每秒11.5PetaFLOPS的运算能力,大幅降低训练时间。

640.jpg

不过,由于TPU是为Google自家的TensorFlow量身打造,因此并不支持其它架构,开发人员若想采用TPU,就必须以其架构来建立类神经网络,而为了加快发展脚步,Google表示,研究人员若愿意公开自己的研究成果,就能免费使用Cloud TPU。

3、Intel

英特尔近期推出了Movidius神经运算棒(Movidius Neural Compute Stick),是全球首款基于USB 3.0模式的AI运算独立加速器。此产品虽然是针对视觉应用最佳化,不过亦可处理各种深度神经网络(DNN)应用。

英特尔表示,Movidius神经运算棒是为产品开发人员、研究人员及创客而设计,可提供高效能DNN处理能力,让既有的硬件设备及运算平台不需花大钱升级硬件、也无需连上云端,就能拥有深度学习的运算能力,减少相关人员开发、调整及部署AI应用可能遇到的障碍,该产品尺寸小,且售价仅79美元。

4、NVIDIA

GPU大厂NVIDIA早早就进到AI战场卡位,如今成果傲视群雄,堪称AI产业硬件龙头,NVIDIA目前仍持续积极经营此市场,最近一次推出的产品是采用全新Volta架构的Tesla V100,专精于应付资料中心庞大的运算需求。

642.jpg

Tesla V100搭载了640组专为执行深度学习网络数学运算而设计的Tensor Core,速度比前代Pascal架构快5倍,可将深度学习的训练时间由原本的好几年减少为仅需几天,NVIDIA官网更宣称此产品为历来最先进的GPU加速器,在这些大厂的努力下,未来AI的发展愈来愈值得期待。

5、三星

面对AI,三星也不敢落寞,去年,三星就收购了“Siri之父”创办的公司Viv,并在S8开始推出人工智能助手Bixby,另一方面,在硬件领域,三星在AI层面的投入也没有停止。

去年,三星就低调地投资了一家英国人工智能芯片硬件设计初创公司 Graphcore。这家公司的创始人Nigel Toon曾表示其研发的智能处理芯片(IPU)为最新行业领域提供一到两个数量级的领先性能,其研发针对的方向也十分广泛,包括无人驾驶卡车、云端计算、处理机器学习技术等。

6、苹果

可以说,苹果是最早在移动设备布局AI的公司,其智能语音助手Siri后来成为众多移动设备争先模仿的对象。而在去年的WWDC上,苹果就发布了自己的深层神经网络,但这种机器学习发生在服务器端,而不是移动处理器上。

有消息显示,苹果正在研发一款专门处理人工智能相关任务的芯片,他们内部将其称为「苹果神经引擎」(Apple Neural Engine)。据彭博社的消息,这块芯片将能够改进苹果设备在处理需要人工智能的任务时的表现,而其针对的功能目标则是AR(增强现实)和自动驾驶。

7、Microsoft

微软在上个月放出消息显示,其下一代其混合现实HoloLens 2将采用AI芯片,使设备可直接识别用户所看的事物和听见的声音,将数据传回云端时也不会产生更多的延时。

前几天,在硅谷举办的Hot Chips大会上,微软提出了Soft DPU的概念,即在FPGA上实现DNN Processing Unit。并且列出了一些做Soft DPU的公司,包括百度和深鉴科技,以及做Hard DPU(ASIC)的公司。然后,正式提出了BrainWave的名号,并介绍了它的完整Stack。

63243.jpg

微软还提出了一个“Persistent” Neural Net的概念。简单来说就是把model的所有参数都放在FPGA的on-chip memory当中。而不是我们常见的把参数放在片外的DRAM当中。这个想法似乎和GraphCore类似。

除了以上这几家外,AMD、Baidu,亚马逊、Facebook等国际科技巨头,国内的寒武纪、深鉴科技、地平线机器人、西井科技、云知声、阿里巴巴、联想、科大讯飞等企业均参与投资。也都在AI方面投入了巨大的资源,以求在不远的未来竞争中争取有利位置。