深度学习的硬件之争关键年:NVIDIA, AMD, Intel鹿死谁手?
2018-01-12 15:09
253 查看
随着英伟达Titan V的发布,我们迈入了深度学习硬件发展的动荡期。NVIDIA能否在2018年保住深度学习硬件首要供应商的地位还未可知,AMD和Intel Nervana都仍有机会。
所以对于想买硬件的消费者,最精明的选择就是等上3至9个月,到这种不确定的状态过去之后再决定。
深度学习芯片领域的竞争从未停止过。
NVIDIA决定在竞争初现端倪之前,先将自己的垄断地位变现。通过这种方式,他们希望在未来1-2年内确保行业领先,所以他们的Titan V的售价高达3000美元!
虽然Titan V的深度学习专用核心Tensor Core有着独特的性能,但性价比实在太糟,使其市场吸引力不足,只是现阶段除此之外又没有别的选择,所以至少当前就有什么用什么吧。
AMD的硬件水平已经赶超NVIDIA了,而且他们计划再开发出相匹配的深度学习软件。如果这一步实现的话,其性价比会轻松超越NVIDIA,并在此领域成为新的标杆。而届时NVIDIA就会凭借着雄厚的资金实力来拼市场,所以我们或许会在未来看到非常便宜的NVIDIA产品。注意这种情况是建立在AMD推出高质量软件的基础上——如果AMD跳票,则丧失了抢走桂冠的机会,而NVIDIA的产品将仍停留在高价位。
市场上还有另一位新晋竞争者:Intel Nervana的神经网络处理器(NNP)。凭借着几种迎合CUDA开发者需求的独特性能,它表现得还比较有竞争力。NNP处理器可以解决优化深度学习的CUDA内核中绝大多数的问题,这款芯片才真正称得上第一枚深度学习芯片。
通常意义上,对于单一芯片之间的排名,我们会按照Nervana > AMD > NVIDIA的顺序来排,因为NVIDIA的芯片不得不在游戏、深度学习和高性能运算中维持平衡,AMD也需要同时考虑游戏和深度学习,只有Nervana可以聚焦于深度学习,这是一个巨大的优势,使得他们的芯片较其他两家少了很多无用的结构设计。
然而,获胜者往往不是取决于纯粹的性能或者性价比,而是要综合考虑性价比+周边生态+深度学习框架。
让我们来仔细了解一下这三家公司产品的优劣,看看它们到底处于什么位置。
Nervana的神经网络处理器(NNP)
图:当前并没有专门为AI所设计的硬件产品,而Intel Nervana NNP帮我们摆脱了这种限制。
Nervana芯片的独特之处在于它为计算扩展出大空间的缓存(类似CUDA共享内存),相当于GPU的10倍,而单个计算单元的缓存是GPU的50倍。有了这种设计,其运算速度会提升至少一个量级,就可以在缓存内完成算法与模型计算并轻松地训练TB字节的数据(如一个带有200个单元的多层LSTM)。
阅读原文
所以对于想买硬件的消费者,最精明的选择就是等上3至9个月,到这种不确定的状态过去之后再决定。
深度学习芯片领域的竞争从未停止过。
NVIDIA决定在竞争初现端倪之前,先将自己的垄断地位变现。通过这种方式,他们希望在未来1-2年内确保行业领先,所以他们的Titan V的售价高达3000美元!
虽然Titan V的深度学习专用核心Tensor Core有着独特的性能,但性价比实在太糟,使其市场吸引力不足,只是现阶段除此之外又没有别的选择,所以至少当前就有什么用什么吧。
AMD的硬件水平已经赶超NVIDIA了,而且他们计划再开发出相匹配的深度学习软件。如果这一步实现的话,其性价比会轻松超越NVIDIA,并在此领域成为新的标杆。而届时NVIDIA就会凭借着雄厚的资金实力来拼市场,所以我们或许会在未来看到非常便宜的NVIDIA产品。注意这种情况是建立在AMD推出高质量软件的基础上——如果AMD跳票,则丧失了抢走桂冠的机会,而NVIDIA的产品将仍停留在高价位。
市场上还有另一位新晋竞争者:Intel Nervana的神经网络处理器(NNP)。凭借着几种迎合CUDA开发者需求的独特性能,它表现得还比较有竞争力。NNP处理器可以解决优化深度学习的CUDA内核中绝大多数的问题,这款芯片才真正称得上第一枚深度学习芯片。
通常意义上,对于单一芯片之间的排名,我们会按照Nervana > AMD > NVIDIA的顺序来排,因为NVIDIA的芯片不得不在游戏、深度学习和高性能运算中维持平衡,AMD也需要同时考虑游戏和深度学习,只有Nervana可以聚焦于深度学习,这是一个巨大的优势,使得他们的芯片较其他两家少了很多无用的结构设计。
然而,获胜者往往不是取决于纯粹的性能或者性价比,而是要综合考虑性价比+周边生态+深度学习框架。
让我们来仔细了解一下这三家公司产品的优劣,看看它们到底处于什么位置。
Nervana的神经网络处理器(NNP)
图:当前并没有专门为AI所设计的硬件产品,而Intel Nervana NNP帮我们摆脱了这种限制。
Nervana芯片的独特之处在于它为计算扩展出大空间的缓存(类似CUDA共享内存),相当于GPU的10倍,而单个计算单元的缓存是GPU的50倍。有了这种设计,其运算速度会提升至少一个量级,就可以在缓存内完成算法与模型计算并轻松地训练TB字节的数据(如一个带有200个单元的多层LSTM)。
阅读原文
相关文章推荐
- 深度学习的硬件之争关键年:NVIDIA, AMD, Intel鹿死谁手?
- 从深度学习gpu选择来谈谈gpu的硬件架构
- 【直观梳理深度学习关键概念】优化算法、调参基本思路、正则化方式等
- 博世投资张翠波:自动驾驶需要突破芯片、传感器、深度学习算法等关键技术
- 2018最新深度学习与神经网络的计算特点与硬件配置分析
- 深度学习环境配置(Nvidia驱动+CUDA+cuDNN)
- 深度学习关键一点 特征的自动提取
- 干货丨深度学习硬件,GPU、CPU、FPGA到底谁最合适?
- 深度学习为何起作用——关键解析和鞍点
- 基于OpenCL的深度学习工具:AMD MLP及其使用详解
- 深度学习硬件(GPU、FPGA、ASIC、DSP)
- 深度学习硬件对比评测:英特尔FPGA和英伟达GPU哪个更好?
- 深度学习硬件购买指南
- 深度学习pytorch环境搭建+nvidia驱动+cuda+pytorch-gpu
- NVIDIA DLI 深度学习培训 | 北京 上海两站新年火热来袭
- NVIDIA DLI 深度学习培训 | 北京站 即将开班
- 深度学习用途广:Nvidia工程师机智赶跑草坪上撒野的邻家喵星人
- 深度学习为何起作用——关键解析和鞍点
- 深度学习入门指北——从硬件到软件
- 学习笔记︱Nvidia DIGITS网页版深度学习框架——深度学习版SPSS