您的位置:首页 > 大数据 > 人工智能

人工智能发展背后的安迪比尔定理

2017-11-12 18:38 162 查看
安迪是原英特尔公司 CEO 安迪•格鲁夫(Andy Grove),比尔就是微软的创始人比尔•盖茨。所谓的安迪比尔定理,就是cpu的性能增长被越来越庞大而消耗内存的软件消耗殆尽。该定理在如今十分火爆的人工智能领域依然发挥作用,只不过主角不再是cpu。因为现在的人工智能大多采用主流的深度神经网络技术,而该技术所需要的数据量是传统技术的几千几万倍,因为一些独有的特性,gpu(图形处理器,即显卡)比起传统的cpu在处理大数据方面有极大的优势,因此成为了人工智能的选择。

因此安迪比尔定理有了新的定义:gpu的性能增长被爆炸性增长的大数据消耗殆尽。

随着移动互联网的不断发展,数据量呈指数级上涨。

数据增长趋势



正因大数据的不断增长,硬件也被迫不断更新换代。

显卡天梯图



然而无论买了多新的显卡,组建了多昂贵的工作站,在庞大的数据量面前依然有一种力不从心的感觉。硬件的发展速度远不及数据增长的速度,相较之下甚至可以说,硬件性能是有限的,但数据是无限的。gpu的性能增长转眼间就被被爆炸性增长的大数据消耗殆尽。

在人工智能领域,安迪比尔定理仍将长时间发挥作用。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: