您的位置:首页 > 理论基础 > 计算机网络

网络视频卡顿?MIT利用人工智能找到了解决方法

2017-08-16 00:00 267 查看
点击关注,抢跑AI世代


【AI世代编者按】缓冲和马赛克是影响流媒体视频服务的最主要问题。这破坏了观众体验,不利于广告主展示广告,也给流媒体服务带来了技术难题。来自麻省理工学院计算科学与人工智能实验室(CSAIL)的神经网络或许可以解决这方面的问题。

在流媒体视频的播放过程中,数据并非一次性传入你的电脑,因为这可能会消耗掉所有的带宽。因此,数据被分成小块,并按顺序来传送。
然而为了确保视频有足够高的质量,YouTube等网站利用了ABR(自适应比特率)算法来判断,什么样的视频分辨率是合适的。ABR技术包括两种方式,一种需要测量网络的数据传输速度有多快,而另一种则是在视频开头保证足够大的缓冲量。

如果基于传输速度的算法失败,那么视频就会出现马赛克。这时系统会降低比特率,确保视频仍能继续播放。但如果你快进得太多,那么就会触发缓冲机制。这时播放将被暂停,你必须等待新的数据缓冲。
这两种ABR技术本质上是从两个方面去解决同个问题,但都无法完全解决问题。而人工智能可以带来帮助。

在这个领域,我们已经看到了一些研究。来自卡耐基梅隆大学的研究团队近期开发了“模型预测控制”(MPC)技术。
这种技术试图预测网络环境如何随时间变化,随后基于模型进行优化决策。然而这个系统的问题在于,实际性能取决于模型,不适合流量剧烈变化的网络。

CSAIL的人工智能名为Pensive,并不依赖某种模型。这种人工智能利用机器学习技术,以确定何时,以及在什么条件下,在基于速率和基于缓冲的ABR技术之间进行切换。与其他神经网络类似,Pensive利用奖励惩罚制度来评价每次尝试的结果。



随时间推移,系统能调整自身的行为,从而持续获得最高的奖励。有趣的是,由于奖励可以调整,因此整个系统可以按照我们想要的方式来调节。

麻省理工学院教授穆罕默德·阿里扎德(Mohammad Alizadeh)表示:“我们的系统非常灵活,你可以按照自己想要的方式去优化。用户甚至可以指定,系统优先关注缓冲还是关注分辨率,从而获得个性化的流媒体体验。”
该团队利用长达1个月的视频内容去训练该神经网络,目前可以取得与MPC同样的分辨率质量,但缓冲减少了10%到30%。

这项技术很可能会被应用于YouTube和Netflix,不过麻省理工学院的团队希望,首先将该技术应用于虚拟现实。“如果想要播放4K分辨率的虚拟现实内容,那么比特率很容易就达到每秒几百兆。今天的宽带网络无法支持如此大的带宽需求。”
阿里扎德表示,“我们想要看看,类似Pensive的系统对虚拟现实能做出什么贡献。”(编译/昱烨)



内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: 
相关文章推荐