您的位置:首页 > 移动开发 > Android开发

WebRTC --- Chrome Android平台上的硬件加速编解码分析

2013-11-05 11:11 260 查看
[本文属原创,如有转载,请注明出处http://blog.csdn.net/yl02520/article/]

WebRTC是一个实时的视频通信功能,Android平台上的Chrome也提供了支持,在Chrome 29之后WebRTC功能趋于稳定,所以在之后的版本中默认被打开。也就是说不需要在”chrome://flags”中手动去打开该功能。

本节主要介绍一下Android平台上Chrome支持WebRTC硬件加速编解码的现状:

首先介绍一下WebRTC的视频传输的大致流程,摄像头在一端拍下图片,然后编码,通过RTP传输给另一端,另一端接收到图片后,解码,最后显示到屏幕上。该过程反复进行就实现了端对端的视频通信。

这里重点介绍一下编码和解码,Google实现的WebRTC只支持VP8编解码,不支持当今流行的H264(由于专利费用问题),VP8编码是Google开发的一种编码,已经开源了,开发者可以免费使用,更多信息可以参考http://www.webmproject.org/code/

在Android平台上WebRTC的视频编解码共有三种方案,即调用第三方编解码库(libvpx)和调用Android平台上的MediaCodec编解码,而MediaCodec编解码又可细分为两种,其一是MediaCodec的软件解码,其二是真正的GPU硬件加速编解码。MediaCodec采用软件或硬件编解码取决于平台GPU有没有实现VP8的编解码,如果平台支持,MediaCodec自然就会调用硬件去加速编解码,否则MediaCodec就会调用软件的编解码来完成。据写本文为止,只有三星的Nexus10支持VP8的硬件解码。至于VP8的硬件编码,目前还没有厂商支持,因为VP8的解码除了WebRTC需要之外,播放VP8编码的视频也可以受益,而VP8的硬件编码只有WebRTC有该需求,所以厂商在支持解码比编码的动力更强一些。在WebRTC实现的早期阶段(chrome
30之前),Android平台上都是采用第一种方式(调用libvpx)来完成编解码的。在chrome 31及其以后就会调用平台自带的MediaCodec完成编解码。

下面介绍一下这三种解码的效率如何:采用MediaCodec的硬件加速解码与libvpx相比,fps没有明显的变化保持在28左右,但是cpu的利用率可以减少一半,这样就可以解放CPU去执行其他的任务,UI响应会更及时,带来更好的用户体验。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: