您的位置:首页 > 大数据 > 人工智能

2018 AI趋势:AI芯片更丰富,用机器学习的企业翻倍 | 德勤报告

2017-12-14 00:00 756 查看
安妮 编译自 德勤官网
量子位 出品 | 公众号 QbitAI
这是一个急速变化但又有很强发展衔接性的时代。德勤在最新报告Technology, Media and Telecommunications Predictions(科技、传媒和通讯的预测)开头这样说。这份报告中,德勤预测了增强现实(AR)、智能手机、AI芯片、机器学习、互联网、数字传媒等领域在2018年的大趋势。总体来讲,科技、传媒和通讯领域内将呈现指数级进步,生活中的方方面面也将发生不易察觉的变化。这份报告长达80页,量子位将其中与人工智能相关的两部分编译整理如下。在2017年的尾巴,我们提前去2018年预览一下。

AI芯片

强大的运算力对训练和推理神经网络来说必不可少。2009年,第一块GPU问世,这种专门为密集型计算、高度并行计算设计的芯片,比CPU更能满足机器学习任务的要求。自此,越来越多的类型开始丰富“AI芯片”这个新名词。

德勤预测,2018年,GPU和CPU仍是机器学习领域的主流芯片。GPU的市场需求量大概在50万块左右,在机器学习任务中对FPGA的需求超过20万块,而ASIC芯片的需求量在10万块左右。

[b]△ GPU、FPGA和ASIC芯片需求与2016年对比图[/b]在年底,超过25%的数据中心中用来加速机器学习的芯片将为FPGA和ASIC芯片。

[b]△ FPGA和ASIC芯片的市场份额超过25%[/b]那么,每种类型的芯片到底向什么方向发展,德勤给出了详细的预测:机器学习优化的GPU:在2018年,GPU制造者将推出专门优化机器学习任务的特别版GPU。其实现在已经能看到这样的案例,英伟达称自己的Volta架构将使深度学习训练加速12倍,在深度学习推理任务上比Pascal架构还要快6倍。机器学习优化的CPU:在GPU市场蒸蒸日上的同时,我们也可以看到CPU公司推出机器学习专用的CPU芯片。比如英特尔Knights Mill芯片,比非机器学习优化芯片的性能提升了4倍。机器学习优化的FPGA:在2016年,全球FPGA芯片的销售额已经超过40亿美元。在2017年年初报告《
Can FPGAs Beat GPUs in Accelerating Next-Generation Deep Neural Networks?》中,研究人员表示在某些情况下,FPGA的速度和运算力可能比GPU还要强。目前,微软、亚马逊AWS和百度也称将FPGA用于机器学习的相关任务中。总体来说,2018年机器学习任务对FPGA的需求超过了20万。机器学习优化的ASIC芯片:ASIC是只执行单一任务的芯片,目前ASIC芯片的制造厂商很多。在2017年,整个产业的总收益大约在150亿美元左右。综合各芯片厂商放出的消息,英特尔的收购的Nervana,能在2018年生产出自己的芯片。此外,日本富士通也计划在2018年推出一款名为深度学习单元(DLU)的芯片。TPU:TPU是谷歌为适应机器学习任务推出的ASIC芯片,适用于处理在开源的TensorFlow中的任务。在谷歌数据中心的推理任务中,TPU已经显示出良好的性能,和CPU相比,性能可以提升10到50倍。据谷歌预测的数据显示,2018年对TPU的需求大约在10万块左右。低能耗机器学习加速芯片:德勤预测,在2018年,手机、平板和其他移动设备对机器学习芯片的需求量在5亿左右。移动端芯片的最大特点就是低能耗,GPU芯片的功率大致在250瓦左右,相比之下TPU芯片需要的功率仅为75瓦。对传感器网络来说,所需功率需要低于10毫瓦。德勤预测,可能再过两三年,低功率的机器学习芯片才能有突破性进展。光流芯片:除了上面几种,还有一种特殊的芯片类型,IBM的True North芯片就是一种光流芯片,它能加速机器学习任务,并且非常高效。不过德勤表示,现在还很难预测这种光流芯片在2018年的体量,但整体来说可能低于10万块,甚至低于1万块。

机器学习

德勤预测,在2018年,大中型企业将更加看重机器学习在行业中的应用。和2017年相比,用机器学习部署和实现的项目将翻倍,并且2020年将再次翻倍。

[b]△ 翻倍再翻倍[/b]在报告中,德勤重点提出了让机器学习更广泛应用企业中的5个重要推动力,分别为数据科学的自动化、训练数据需求的减少、训练速度的加快、解释结果和本地部署等。1. 数据科学自动化:像数据开发和特征工程这种耗时的机器学习任务,可能会占用数据科学家80%的时间。好消息是,这种繁琐的工作正在逐步被自动化取代。从耗时的工作解放出来后,数据科学家执行机器学习试验的时间从几个月缩短到了几天。自动化在一定程度上缓解了数据科学家的短缺,为企业赋予和更多活力。2. 减少训练数据的需求:训练一个机器学习模型可能需要数以百万计的数据元素,为训练数据获取标记数据也是一件耗时且成本高的事情。目前,已经涌现出致力于减少机器学习需要的训练数据的技术,包括数据合成、算法生成的模拟真实数据特征等。3. 加速训练:正如上面所说,像GPU、FPGA等机器学习专有硬件的出现可以缩短机器学习模型的训练时间,加速研究进展。4. 解释结果:虽然机器学习的进展日新月异,但机器学习模型通常存在关键缺陷,比如黑箱,意味着我们无法解释其中的原理。这些不清楚让模型无法适应更多的应用。如果黑箱消失、结果都可解释,是机器学习应用的一大进步。5. 本地部署:机器学习将随着部署能力一同成长。德勤去年曾经预测,机器学习正在走进移动设备和智能传感器,带来智能家庭、智慧城市、无人驾驶、可穿戴技术和物联网技术。像谷歌、微软、Facebook等科技巨头正在尝试将机器学习模型压缩到便携设备上,比如谷歌的TensorFlow Lite、Facebook的Caffe2Go和苹果的Core ML。

相关资料

最后,附报告下载地址——德勤报告网盘地址: https://pan.baidu.com/s/1qXKx3sS简笔画版报告摘要: https://pan.baidu.com/s/1mivJvBE—
活动报名


加入社群量子位AI社群12群开始招募啦,欢迎对AI感兴趣的同学,加小助手微信qbitbot4入群;
此外,量子位专业细分群(自动驾驶、CV、NLP、机器学习等)正在招募,面向正在从事相关领域的工程师及研究人员。
进群请加小助手微信号qbitbot4,并务必备注相应群的关键词~通过审核后我们将邀请进群。(专业群审核较严,敬请谅解)
诚挚招聘
量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。


量子位 QbitAI · 头条号签约作者
վ'ᴗ' ի 追踪AI技术和产品新动态
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: 
相关文章推荐