您的位置:首页 > 移动开发 > Android开发

[置顶] 《android多媒体api》之AudioRecord原始音频pcm录制api

2017-12-15 14:20 429 查看
《android多媒体api》系列是整合梳理android开发中经常用到的媒体相关api;多媒体开发主要内容有音频、视频录制播放、摄像头操作、录制操作、流媒体、直播、推流、拉流等方面;最近几年移动直播和视频应用发展犹如雨后春笋一般直插云霄,呃。。好吧这段比喻可以不用看了!!,反正行业兴起肯定催生了很多多媒体相关应用开发程序员。那么怎样才能成为多媒体开发程序员,首先必须要熟练使用和了解android自带的多媒体api,并且还要掌握pcm、yuv、rgb、h264、aac、flv、mpegts、mp4、udp、rtp、rtmp等等众多文件格式和流媒体协议等等。所以这里整理android相关多媒体api,提供给想从事流媒体同学作为参照,同样还是要鸣谢网络上那些具有分享精神大神们!!

基本概念:

视频播放:demuxer(解复用)->分离出音频流和视频流->decoder(解码)->播放原始数据(例如:pcm yuv)

视频录制:采集原始数据(例如:pcm yuv)->encoder(编码)->muxer(封装格式 例如:mp4 3gp)

流媒体协议:udp、rtp、rtmp、rtcp、rtsp等

音视频封装格式:mp4 、3gp、flv等

音视频编码格式:aac、amr、h264、h265等

原始音视频数据格式:pcm 、yuv、rgb等

流程图:



文章目录:

VideoView 视频播放控件

camera配合surface预览相机画面和拍照

MediaPlayer自定义视频播放器

MediaRecorder音视频录制api

AudioTrack原始音频pcm播放api

AudioRecord原始音频pcm采集api

AudioRecord是什么?

AudioRecord是可以录制原始音频数据pcm的api,如果是一些音乐录制,或者直播语音等都需要使用音频数据前置处理,比如:降噪、多音频合成、特效音效处理等等。那么就需要获取原始音频数据后处理完毕后在编码,因为编码后的数据是不能够处理降噪、特效等操作的。那么就下来看看怎么用AudioRecord来录制原始音频数据;下面做了一个demo,主要是录制音频后保存到文件中去。pcm录音时候需要制定几个重要参数,这几个参数在以后播放的时候也要对应设置,要不然无法播放。录制时候还需要设置录制缓冲区大小,缓存区越大,内存溢出风险越小。

pcm参数:

1、采样率

2、声道数

3、位宽

首先视频音频录制是属于用户敏感信息,所以使用之前一定要申请权限:

<uses-permission android:name="android.permission.RECORD_AUDIO" />
<uses-permission android:name="android.permission.MOUNT_UNMOUNT_FILESYSTEMS" />
<uses-permission android:name="android.permission.WRITE_EXTERNAL_STORAGE" />


基于AudioRecord录音功能:

xml布局文件:

<?xml version="1.0" encoding="utf-8"?>
<FrameLayout xmlns:android="http://schemas.android.com/apk/res/android"
android:layout_width="fill_parent"
android:layout_height="fill_parent">

<SurfaceView
android:id="@+id/surfaceView1"
android:layout_width="fill_parent"
android:layout_height="fill_parent"/>

<LinearLayout
android:layout_width="wrap_content"
android:layout_gravity="bottom|center_horizontal"
android:layout_height="wrap_content"
android:orientation="horizontal">

<Button
android:onClick="onClick"
android:id="@+id/start_btn"
android:layout_width="wrap_content"
android:layout_height="wrap_content"
android:text="开始"/>

<Button
android:onClick="onClick"
android:layout_marginLeft="80dp"
android:id="@+id/btnStop"
android:layout_width="80dip"
android:layout_height="wrap_content"
android:text="停止"/>
</LinearLayout>
</FrameLayout>


java代码:

package com.jared.helloffmpeg;

import android.app.Activity;
import android.content.pm.ActivityInfo;
import android.media.*;
import android.media.AudioRecord;
import android.os.Bundle;
import android.os.Environment;
import android.support.annotation.Nullable;
import android.util.Log;
import android.view.SurfaceHolder;
import android.view.SurfaceView;
import android.view.View;
import android.widget.Toast;

import java.io.File;
import java.io.FileNotFoundException;
import java.io.FileOutputStream;
import java.io.IOException;

public class RecordMP4Push extends Activity implements View.OnClickListener, SurfaceHolder.Callback {

private SurfaceView surfaceView;
private byte[] outBuf;
private boolean isStart=false;
private AudioRecord audioRecord;
private int bufferSize;

@Override
protected void onCreate(@Nullable Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setRequestedOrientation(ActivityInfo.SCREEN_ORIENTATION_LANDSCAPE);
setContentView(R.layout.record_aac_and_pcm);

surfaceView=findViewById(R.id.surfaceView1);
surfaceView.getHolder().addCallback(this);
}

private void initAudioRecord() {
int sampleRateInHz = 48000;//采样率
int channel= AudioFormat.CHANNEL_IN_STEREO;//声道数
int audioFormat=AudioFormat.ENCODING_PCM_16BIT;//位宽
bufferSize = AudioRecord.getMinBufferSize(sampleRateInHz, channel, audioFormat);
audioRecord = new AudioRecord(MediaRecorder.AudioSource.MIC, sampleRateInHz, channel, audioFormat, bufferSize*4);
outBuf=new byte[bufferSize];
Log.i(getClass().getSimpleName(), "init record="+bufferSize);
}

@Override
public void onClick(View view) {
if (view.getId()==R.id.start_btn)
{
isStart=true;
initAudioRecord();
new Thread(new Runnable() {
@Override
public void run() {
startRecord();
}
}).start();
Toast.makeText(this, "开始录制",Toast.LENGTH_SHORT).show();
}
if (view.getId()==R.id.btnStop)
{
isStart=false;
Toast.makeText(this, "停止录制",Toast.LENGTH_SHORT).show();
}
}

private void startRecord() {
FileOutputStream fileOutputStream=null;
try {
audioRecord.startRecording();
fileOutputStream=new FileOutputStream(new File(Environment.getExternalStorageDirectory().getAbsolutePath()+"/outputs.pcm"));
while (isStart)
{
int len = audioRecord.read(outBuf, 0, bufferSize);
if (len == AudioRecord.ERROR_INVALID_OPERATION || len == AudioRecord.ERROR_BAD_VALUE) {
continue;
}
if (len != 0 && len != -1) {
fileOutputStream.write(outBuf, 0, len);
}
}
} catch (Exception e) {
e.printStackTrace();
} finally {
try {
fileOutputStream.flush();
fileOutputStream.close();
} catch (IOException e) {
e.printStackTrace();
}
audioRecord.stop();
audioRecord.release();
audioRecord=null;
}
}

@Override
public void surfaceCreated(SurfaceHolder surfaceHolder) {

}

@Override
public void surfaceChanged(SurfaceHolder surfaceHolder, int i, int i1, int i2) {

}

@Override
public void surfaceDestroyed(SurfaceHolder surfaceHolder) {

}
}
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: 
相关文章推荐