您的位置:首页 > 大数据 > 人工智能

继谷歌云TPU之后,AWS也推出 AI 芯片 Inferentia – 运维派

2018-12-03 09:23 986 查看

亚马逊旗下的云计算公司今天发布了一款专为机器学习设计的新型处理器芯片,又一次印证了这家公司在云计算领域雄心勃勃。

这款芯片名为Inferentia,将通过AWS的EC2计算服务以及SageMaker AI服务和同样在今天宣布的新服务:Amazon Elastic Inference来提供。该芯片旨在加快由机器学习模型执行的推理或预测过程,帮助支持亚马逊的Alexa等服务和自动驾驶汽车。

新芯片由几年前亚马逊收购的芯片设计公司Annapurna Labs设计,声称与图形处理单元(GPU,主要是英伟达的芯片)相比具有延迟低、具有成本效益的优点,近些年来GPU一直是机器学习的首选芯片。

预计Inferentia将于明年上市。AWS首席执行官安迪•杰西(如图)在拉斯维加斯举行的re:Invent大会上作主题演讲时简要介绍了它,不过设计或规格方面透露的细节很少,只知道它与多种类型的数据和所有主要的框架(比如PyTorch、TensorFlow和MXNet)兼容。它还将提供每秒数百万亿次运算(TOPS),多个结合起来可以达到数千TOPS的性能。

这款芯片是AWS在近日内宣布的第二款芯片。周一晚上,公司宣布推出名为Graviton的芯片,该芯片可通过AWS的EC2云计算服务提供给其云客户。它基于用在智能手机、网络路由器及其他众多设备中的Arm架构,现正逐渐进入到计算机服务器,比如AWS为用于其庞大数据中心而设计的服务器。

市场研究机构Moor Insights & Strategy的总裁兼首席分析师帕特里克•穆尔黑德(Patrick Moorhead)说:“AWS宣布开发自己的支持许多框架的机器学习推理芯片,此举意义重大。与谷歌云不同,AWS服务广泛使用,并具有弹性。针对推理这种应用,AWS现在提供CPU、GPU、FPGA以及现在自己的ASIC。”

过去这几年已涌现出了一系列针对某些应用而优化的新芯片,尤其是针对机器学习和AI。比如说,谷歌在2016年宣布了其首款定制的机器学习芯片:张量处理单元(TPU),让客户可以通过云访问TPU芯片。芯片设计复兴这个现象的一个原因是,需要所谓的超大规模计算公司(拥有大量庞大数据中心)通过调整改动来榨取硬件的最后一点效率。

这一切已让数据中心的领导者英特尔公司处于守势,它已收购了Altera和Movidius等多家公司,为其核心的X86产品线增加新的芯片设计和专业技术。英特尔还调整了X86芯片(比如最新的至强产品线),以便更好地处理机器学习及其他任务。

亚马逊还宣布推出Elastic Inference,这是一种由GPU提供支持的深度学习推理加速服务。杰西表示,通过为客户提供配置实际需要的AWS计算实例这种方案,可以将处理推理任务的成本最多节省75%。

此外,AWS还发布了许多与AI有关的服务和产品,包括Deep Racer(上图),这种自动驾驶的模型汽车可供开发人员用来学习了解机器学习的一个分支:强化学习。预订价为249美元。

AWS计划向客户提供Inferentia,但它与谷歌的产品全然不同。不像TPU是为训练机器学习模型而设计的,Inferentia是为推理而设计的,而推理是系统在训练结束后所做的决策。通过处理成千上万张已作标记的猫照片对模型进行训练后,推理这一环负责识别图像中的猫。

谷歌现推出了第三代TPU,它一直将其作为一项云服务提供给客户。亚马逊在云市场的最大对手:微软Auzre还没有推出自己的处理器。三大巨头都将用于机器学习工作负载加速的英伟达GPU作为一项服务来提供;AWS和Azure还提供用于机器学习的FPGA。

杰西解释,生产用于机器学习的加速处理器的公司(头号厂商是英伟达)将注意力主要放在针对训练来优化处理器上,就是为何AWS决定要专注于设计一款更好的推理芯片。

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  AI AWS Inferentia 芯片