导读:随着人工智能、深度学习的春风吹遍世界各地,各类芯片的头衔都与AI密不可分。知名市场调研公司ReportLinker预计,到2023年,全球人工智能(AI)芯片市场规模将达到108亿美元,复合年均增长率达到53.6%。AI芯片很可能是芯片界的一次变革。
国内外新老AI芯片势力百花齐放,也必将会为芯片市场带来更多可能。
10月9日华为两颗AI芯片问世;
9月26日英伟达宣布推出全新的TensorRT 3人工智能推理软件;
9月19日,阿里巴巴在杭州云栖大会上宣布,成立“平头哥半导体有限公司”;
9月13日苹果发布新款iPhone XS系列手机搭载A12仿生芯片;
8月31日华为发布AI加持的麒麟980芯片;
最近几个月,“AI芯片”无疑成为科技界的一大热门话题,显卡大户英伟达、CPU大佬英特尔、搜索界一哥谷歌、“平头哥”阿里巴巴、“凌晨偷笑”的华为等科技公司都在专注于同一件事:AI芯片。
那么问题来了,AI芯片究竟是什么芯片?目前哪家公司做的最好?为什么每家科技巨头都在争先恐后的研究它?我国在AI芯片能否和国外巨头一战?AI锐见带你一探究竟。
芯片纵有三千,AI只取一瓢!
随着人工智能、深度学习的春风吹遍世界各地,各类芯片的头衔都与AI密不可分。知名市场调研公司ReportLinker预计,到2023年,全球人工智能(AI)芯片市场规模将达到108亿美元,复合年均增长率达到53.6%。AI芯片很可能是芯片界的一次变革。
其实芯片的种类有千千万万,AI芯片只是其中的一部分,甚至有些专家认为目前不存在所谓的人工智能芯片。我们都知道芯片最重要的的工作就是处理数据,AI芯片也不例外,我们所熟知的CPU与GPU亦是如此。
人工智能是什么?简单来说,人工智能分为机器学习和深度学习两部分,无论是机器学习还是深度学习都需要构建算法和模型,以实现对数据样本的反复运算和训练,降低对人工理解功能原理的要求。所以,AI芯片通常要处理规模非常庞大的数据。
芯片类型一览
那传统的CPU和GPU难道不能计算这些数据吗?当然可以,但问题也不少。CPU在处理AI算法时就比较缓慢,比如自动驾驶的车辆需要识别复杂的路况信息,如果慢了几秒就会发生严重的事故,时间就是生命。CPU就不太适合处理这些数据了。
GPU在处理数据时效率虽然提高很多,但黄教主的显卡动辄上万,而且功耗惊人。在几年前,谷歌的人工智能阿尔法狗(Alpha Go)下一盘围棋就动用了1000个CPU和200个GPU,每分钟的电费高达300美元,其网络规模还只有人脑的千分之一。假设一盘围棋的时间为两小时,这就需要花费36000美元。
这种方式虽然可行,但成本太高。也就是谷歌这种大佬用得起,换作其它家中小型企业自然是望而却步的。AI芯片还需广泛应用于手机中,比如面部识别和语音识别。如果像GPU的功耗情况对于手机来说是不现实的。
总结来说,AI芯片的作用就是就是专注于处理机器学习和深度学习的海量数据,比起传统的CPUGPU既能提高效率,又可以减少功耗。
两大应用场景,面向云端与终端
当今AI芯片主要应用于两大场景:面向大型服务器的云端和面向智能硬件的终端。
人工智能首先需要深度学习,深度学习就意味着需要大量的数据和繁琐的运算,在云端AI芯片能够满足当前算法训练的要求。比如给一个系统成千上万种“狗”的图片,并告诉这个系统这种生物是“狗”,系统经过深度学习之后“知道”了什么是“狗”,之后这个系统就可以判断一张图片是不是“狗”了。
所以,云端AI芯片的特点就是性能强大,能够进行大量运算,并且能够灵活地支持图片、语音、视频等不同AI应用。
终端AI芯片则是面向消费者的智能硬件,AI芯片让数据处理等操作实现“本地化”,脱离了“联网”的限制。比如手机,将AI芯片整合在手机CPU中,高通、苹果、华为都实现了这种整合AI芯片的手机CPU。
终端AI芯片的特点是体积小、功耗小、性能无需特别强大,通常只有一种或两种AI功能。如今所说的“智能家居”就离不开终端芯片的功劳。像生活中常见的扫地机器人,智能音箱,手机里的语音助手等设备都配备了终端芯片。
云端英伟达一骑绝尘,终端市场群雄割据
云端AI芯片无论是从硬件还是软件,已经被各大巨头控制。2018年5月,市场研究顾问公司Compass Intelligence发布了关于AI芯片最新调研报告。因为目前AI芯片在终端应用较少,所以榜单头部的排名可以近似的认为就是云端AI芯片的目前市场格局。
从图中看出,排名靠前的无疑就是英伟达、英特尔、IBM与谷歌。排行榜中共有七家中国人工智能芯片公司入围榜单Top24。华为排名12,成中国大陆地区最强芯片厂商。其余六家中国公司分别为:联发科、Imagination、瑞芯微、芯原、寒武纪、地平线。
英伟达:云端芯片·大佬
英伟达目前占据了全球云端AI芯片一半以上的市场,这仅仅是保守数字。GPU非常适合深度学习,而英伟达正好以GPU称霸世界,研究人工智能的科学家就沿着GPU自然而然地找到了英伟达。
黄教主则立马抓住了这个机会,动用数千工程师、投入20亿美元,短时间内研发出第一台专门为深度学习而优化的Pascal GPU。所以,在深度学习大行其道的今天,英伟达变身成了最大赢家。
2018年9月26日,英伟达正式发布最新的TensorRT 3 神经网络推理加速器。目前使用英伟达的AI技术的公司有很多,其中包括国内的BAT、京东等公司,以及国外的亚马逊、谷歌、Facebook等公司。
英伟达旗下产品线更是不在少数:自动驾驶汽车、高性能计算、机器人、医疗保健、云计算、游戏视频等众多。
英特尔:疯狂收购·不差钱
谈到芯片和CPU,怎能少了PC界的老大英特尔。尽管英特尔自身的CPU不适合AI芯片,但人家不差钱啊!
英特尔在AI芯片上可是下了血本。
为了加强在人工智能芯片领域的实力,英特尔以 167 亿美元收购 FPGA 生产商 Altera ,以 153 亿美元收购自动驾驶技术公司 Mobileye,以4亿美元收购深度学习初创企业Nervana Systems以及机器视觉公司 Movidius和为自动驾驶汽车芯片提供安全工具的公司Yogitech。
但遗憾的是,目前还没有成熟的产品面世。用英特尔自己的话说,其要建立一个人工智能全栈式的解决方案,从而充分释放AI的潜力。这可能是英特尔AI芯片迟迟没有落地的原因吧。
谷歌:围棋NO.1·阿尔法狗
谷歌在2016年宣布独立开发一种名为TPU的全新的处理系统。打败众多人类围棋大师的人工智能阿尔法狗采用的是谷歌自主研发的全定制化芯片(ASIC)TPU。
TPU是专门为机器学习应用而设计的专用芯片。TPU特别适合谷歌自家的TensorFlow系统。在2018谷歌开发者大会上,谷歌已经发布了TPU 3.0。谷歌旗下的Waymo自动驾驶公司采用的正是TPU。
018年2月13日,谷歌正式宣布,向谷歌云客户开放张量处理器TPU beta版服务,每小时6.5美元。
对于选择在谷歌云平台上运行机器学习模型的客户来说,这算是个好消息,但谷歌这次开放的TPU数量有限且按时收费,每小时成本为6.50美元。
苹果:仿生加持·A12芯片
从去年的iPhone X使用的A11处理器开始,苹果公司在处理器的AI中大做文章。在今年刚刚发布的iPhone XS系列使用的A12芯片更是披上了“仿生”的神秘面纱。简单来说,苹果的“仿生”只是在其CPU中配备了新一代神经网络引擎。A12仿生处理器相当于模仿了人类大脑的神经网络。
当然,目前的仿生芯片还处于一个比较初级的阶段,多为概念而已,体验上并不会有太大的变化。
这些功能体现在:智能省电优化,Face ID 3D人脸识别,AR表情,相机一键换背景等都离不开仿生芯片的功劳。
根据最新消息,苹果公司正在支付3亿美元现金购买Dialog半导体公司的一部分。该交易预计将于2019年初完成,待监管部门批准。
寒武纪:中国·独角兽之一
寒武纪科技成立于2016年,其拥有终端AI芯片和云端AI芯片两条产品线。华为的麒麟970采用的正是寒武纪开发的NPU。
2018年5月发布的寒武纪MLU100智能芯片,适用于视觉、语音、自然语言处理等多种类型的云端人工智能应用场景。寒武纪目前已经完成B轮融资,整体估值为25亿美元。
华为:顺势而为·AII In AI
就在今年苹果发布会召开的同时,华为余承东深夜发微博:稳了。余总信心满满也许是因为华为自己的麒麟980芯片。早在去年,麒麟970就已经搭载了NPU。NPU也属于全定制化芯片(ASIC),因为定制,所以专业。
而今年的麒麟980更是搭载了双NPU,华为表示,麒麟980的全新双核NPU比麒麟970的NPU快2.2倍,每分钟可实现4500次推断。NPU的功能就是负责AI运算,在大幅提高手机AI性能的同时降低了AI任务功耗,体现在在语音助手、智能识物、省电等功能上,和苹果A12芯片功能类似。
0月10日,华为发布了AI发展战略与全栈全场景AI解决方案,并发布了两款AI芯片:Ascend 910和Ascend 310,一款面向云端,一款面向终端。
当然,华为并不会单独销售这两款AI芯片,而是以芯片为基础开发AI加速模组,AI加速卡,AI服务器,AI一体机,以及面向自动驾驶和智能驾驶进行销售。这次发布的两款芯片都会在2019年第二季度上市,究竟实力如何我们拭目以待。
这是AI芯片最好的时代,也是最坏的时代
根据Gartne报告分析称,AI芯片在2017年的市场规模为48亿美元,2020年预计达到146亿,其中云端应用可望达到105亿。目前AI芯片云端市场被英伟达牢牢占据,终端市场群雄并起。
当然,AI芯片全球起步时间几乎相差无几, 国内外新老AI芯片势力百花齐放,也必将会为芯片市场带来更多可能。