人工智能和物联网如今经常作为一个整体出现,也就是我们常说的AIoT,二者关联性强,构成的市场规模巨大。而处理器芯片作为电子产品的核心部件自然扮演着重要角色,目前SoC和NPU属于AIoT场景的主要芯片,SoC的AI算力逐渐增大,NPU类芯片也在逐渐增加系统功能,二者相互渗透,相互靠近,都想掌握市场话语权。到底谁能成为AIoT时代的主角?
什么是SoC和NPU
SoC即system on chip的缩写,简单来讲就是将系统封装成一颗芯片,SoC本身是多种IP核心的堆叠,不同的核心负责不同的功能。比如SoC内部通常会封装CPU、GPU、ISP、video codec等功能核心,只要添加少部分外围电路就可以组成完整的计算机系统。NPU即神经网络处理单元,一般泛指用于AI计算的专用处理器,当然也有APU、TPU等其他称谓,本文延用NPU这一常规称呼。
为什么SoC和NPU相互接近,相互渗透
中国设计商在人工智能方面采取的策略比较积极,当别人还在讨论NPU对实际应用场景是否有必要时,中国芯片设计商就已经把NPU集成到了SoC里面。瑞芯微是最早实践的,华为海思是把这件事做出成绩的,后面的友商就开始抄作业了,自此,NPU成了SoC的标配。早期的SoC集成的NPU大都采用第三方IP,也就是第三方出图纸,SoC设计商根据图纸集成到自家的SoC当中。但是NPU的发展起步较晚,并不像X86和ARM那样有着很高的技术壁垒,大家基本都处于同一起跑线,所以SoC设计商自然也可以发展自己的NPU产品线,为了更好的把控产品,SoC设计商开始自己设计NPU。
而最早从事NPU设计的商家也是有着相同的想法,如果自己的芯片只是作为一个独立的AI计算模块,那自己将处于被动选择的地位。离开了运行系统的SoC,NPU无法在终端产品落地。而SoC也是IP的堆叠,只要向第三方购买IP,对于NPU设计商来说,自己开发一个SoC也不是难事。因此,以NPU为主导附带系统的SoC开始登上舞台。NPU设计商试图摆脱对传统SoC芯片的依赖,独立完成项目落地,打造自己的产品闭环。
现阶段SoC设计商更具话语权
根据目前的市场情况来看,现阶段是传统的SoC设计商更具话语权,这也是必然。SoC拥有大量的业务基础,NPU算力属于锦上添花的功能,终端客户对原有产品升级换代也很方便,可以快速产生营收。而对于NPU厂商来说,客户转化相对困难,一切都是从头开始。在失去SoC设计商这部分客户后,目标客户就变成了面向终端客户的方案商,产品的渠道、技术的支持,都不是一日之功。在当前对AI算力需求还不是特别旺盛的情况下,NPU的竞争力并不强。
从人工智能的发展要素来看,NPU的算力作为核心确实举足轻重,但是另外的两个要素数据和算法,似乎都站在SoC这边。数据的产生、传输、存储都离不开SoC的丰富功能,算法也是基于操作系统运行的。当然并不是说NPU做不到这些,但是现阶段NPU搭载的系统都是相对老旧的IP,并且功能比较单一,无法与成熟的SoC抗衡。从目前来看,更多的用户是站在SoC这边,因此SoC有着市场优势。但是,这并不意味着NPU不会迎来高速发展。
单一场景下NPU更具优势
SoC的优势在于更丰富的功能,而NPU则具有更高的算力,在单一场景下,NPU会更具竞争力。以IPC的视频分析为例,属于机器视觉范畴,只需要对视频流进行分析即可,不需要过多的功能设计,因此NPU主导的就芯片可以满足需求,而NPU芯片厂家往往都比较注重打造软件开发生态,这种情况下基于NPU芯片开发产品的效率会更高一些,也更容易为终端客户接受。置于机器学习类的场景就更是如此了,对大算力有着绝对的需求,自然也是NPU的主场。
结语
NPU厂商目前的困境多是源于营收不足,无法加大投入,提高SoC部分的性能,当然,也许是没必要提高。当算力成为消费者决策的关键因素时,NPU的竞争优势就会凸显。而SoC厂商的优势也是源于稳定的应收,可以发展NPU,目前也确实取代了一些低算力的第三方IP,实现了产品闭环。但是超大算力并不是SoC的追求,至少目前还不是。不存在一方淘汰另一方的情况,一个芯片的面积是有限的,所能实现的功能也是有限的。每一产品的发展都需要长期的技术积累,芯片尤其如此。尺有所短,寸有所长,二者的关系更像是CPU与GPU的关系,相互依存,相互竞争,不会取代对方,长期并存。
版权声明:原创文章,转载须注明出处 ScenSmart