@ltlovezh
2019-04-10T02:11:48.000000Z
字数 8222
阅读 2280
音频
最近有个需求:对音频裁剪时,裁剪条的纵坐标必须是音频音量,以帮助用户更好的选择音频区域,所以就需要快速准确的提取出音频的音量列表。本文主要介绍下从mp4文件中提取音轨音量的方式,以及相关的知识点。
声音的本质是空气压力差造成的空气振动,振动产生的声波可以在介质中快速传播,当声波到达接收端时(比如:人耳、话筒),引起相应的振动,最终被听到。

声音有两个基本属性:频率与振幅。声音的振幅就是音量,频率的高低就是音调,频率的单位是赫兹(Hz)。
当声波传递到话筒时,话筒里的碳膜会随着声音一起振动,而碳膜下面是一个电极,碳膜振动时会触碰电极,接触时间的长短跟振动幅度有关(即:声音响度),这样就完成了声音信号到电压信号的转换。后面经过电路放大后,就得到了模拟音频信号。
模拟音频:用连续的电流或电压表示的音频信号,在时间和振幅上是连续。过去记录的声音都是模拟音频,比如:机械录音(以留声机、机械唱片为代表)、磁性录音(以磁带录音为代表)等模拟录音方式。
计算机不能直接处理连续的模拟信号,所以需要进行A/D转换,以一定的频率对模拟信号进行采样(就是获取一定时间间隔的波形振幅值,采样后模拟出的波形与原始波形之间的误差称为采样噪音),然后再进行量化和存储,就得到了数字音频。
数字音频:通过采样和量化获得的离散的、数字化的音频信号,即:计算机可以处理的二进制的音频数据。
相反的,当通过扬声器播放声音时,计算机内部的数字信号通过D/A转换,还原成了强弱不同的电压信号。这种强弱变化的电压会推动扬声器的振动单元产生震动,就产生了声音。整个流程可以用下图来表示:

最常见的A/D转换是通过脉冲编码调制PCM(Pulse Code Modulation)。要将连续的电压信号转换为PCM,需要进行采样和量化,我们一般从如下几个维度描述PCM:
数字音频文件大小(Byte) = 采样频率(Hz)× 采样时长(S)×(采样位数 / 8)× 声道数(单声道为1,立体声为2)
采样点数据有有符号和无符号之分,比如:8 bit的样本数据,有符号的范围是-128 ~ 127,无符号的范围是0 ~ 255。大多数PCM样本使用整形表示,但是在一些对精度要求比较高的场景,可以使用浮点类型表示PCM样本数据。
下面看一个具体的采样示例:

其中,黑色曲线表示要采集的声音波形,红色曲线表示采样量化后的PCM数据波形。
上图中,采样位数是4 bit,每个红点对应一个Pcm采样数据,很明显:
接下来看下PCM数据存储方式,如果是单声道音频,采样数据按照时间的先后顺序依次存储,如果是双声道音频,则按照LRLRLR方式存储,每个采样点的存储方式还与机器大小端有关。大端模式如下图所示:

Pcm文件没有头部信息,全部是采样量化后的未压缩音频数据。
我们一般用分贝(db)描述声音响度。声学领域中,分贝的定义是声源功率与基准声源功率比值的对数乘以20的数值。根据人耳的特性,我们对声音的大小感知呈对数关系,而不是线性关系。人类的听觉反应是基于声音的相对变化而非绝对变化。对数函数正好能模仿人耳对声音的反应。所以用分贝描述声音强度更符合人类对声音强度的感知。如下图所示,横轴表示PCM采样值,纵轴表示人耳感知到的音量,图中截取了两块横轴变化相同的区域,但是人耳感觉到的音量变化是不一样的。在较安静的左侧,感觉到的音量变化较大;在叫喧嚣的右侧,人耳感觉到的音量变化较小。

具体来说,分贝计算公式如下所示:
OK,了解了PCM格式和db计算方式之后,我们看下提取一个音频文件db值的整体流程:
首先,我们基于Android平台的多媒体API来实现PCM的数据提取,然后计算分贝值。
简单概述就是:首先通过MediaExtractor解封装Mp4提取AAC编码流,然后通过MediaCodec解码AAC数据,得到PCM。核心代码如下所示:
// 解封装器val audioExtractor = MediaExtractor()// 设置路径audioExtractor.setDataSource(audioInputPath)// 找到音轨for (i in 0 until audioExtractor.trackCount) {val format = audioExtractor.getTrackFormat(i)if (format.getString(MediaFormat.KEY_MIME).startsWith("audio/")) {audioExtractor.selectTrack(i)// 音轨FormatinputAudioFormat = formatbreak}}// 音频声道数audioChannel = inputAudioFormat.getInteger(MediaFormat.KEY_CHANNEL_COUNT)// 音频采样率audioSampleRate = inputAudioFormat.getInteger(MediaFormat.KEY_SAMPLE_RATE)val mime = inputAudioFormat.getString(MediaFormat.KEY_MIME)val sampleBitStr = inputAudioFormat.getString(MediaFormat.KEY_PCM_ENCODING)val sampleBit = if (sampleBitStr != null) {try {Integer.parseInt(sampleBitStr)} catch (e: Exception) {AudioFormat.ENCODING_PCM_16BIT}} else {AudioFormat.ENCODING_PCM_16BIT}// 一个采样点占用的字节数sampleByte = when (sampleBit) {AudioFormat.ENCODING_PCM_8BIT -> 1AudioFormat.ENCODING_PCM_16BIT -> 2else -> 2}// 启动解码器val audioDecoder = MediaCodec.createDecoderByType(mime)audioDecoder.configure(inputAudioFormat, null, null, 0)audioDecoder.start()// 解码器的输入和输出Buffer列表val decoderInputBuffer = audioDecoder.inputBuffersvar decoderOutputBuffer = audioDecoder.outputBuffersval bufferInfo = MediaCodec.BufferInfo()while (!decodeDone) {if (!inputDone) { // 提取AAC,进行编码val inputIndex = audioDecoder.dequeueInputBuffer(0L)if (inputIndex >= 0) {val inputBuffer = decoderInputBuffer[inputIndex]inputBuffer.clear()val readSampleSize = localAudioExtractor.readSampleData(inputBuffer, 0)if (readSampleSize > 0) {audioDecoder.queueInputBuffer(inputIndex, 0, readSampleSize, localAudioExtractor.sampleTime, localAudioExtractor.sampleFlags)// 移动到下一帧audioDecoder.advance()} else { // 结束帧audioDecoder.queueInputBuffer(inputIndex, 0, 0, 0, MediaCodec.BUFFER_FLAG_END_OF_STREAM)inputDone = true}}}if (!decodeDone) {val outputIndex = localAudioDecoder.dequeueOutputBuffer(bufferInfo, 0)if (outputIndex >= 0) {if(bufferInfo.size > 0){val outputBuffer = decoderOutputBuffer[outputIndex]// 大小端val isBigEndian = (outputBuffer.order() == ByteOrder.BIG_ENDIAN)outputBuffer.position(bufferInfo.offset)outputBuffer.limit(bufferInfo.offset + bufferInfo.size)val pcmByteArray = ByteArray(bufferInfo.size)// copy出PCM数据outputBuffer.get(pcmByteArray)outputBuffer.clear()// 当前帧采样点个数val curSampleNum = pcmByteArray.size / sampleByte / audioChannel// 计算出当前帧的DB值val db = compute(isBigEndian,pcmByteArray,audioChannel,sampleByte)// 处理db值......}// 归还BufferaudioDecoder.releaseOutputBuffer(outputIndex, false)// 判断是否是最后的帧if ((bufferInfo.flags and MediaCodec.BUFFER_FLAG_END_OF_STREAM) != 0){decodeDone = true}}}}
上述代码是通过MediaExtractor和MediaCodec解码音视频的标准流程,已经添加了详细的注释,我们看下基于PCM计算db的具体函数:
fun compute(isBigEndian : Boolean ,pcmByteArray : ByteArray,audioChannel : Int,sampleByte : Int){// 计算出步长:MediaCodec解码出的PCM数据是按照Packed模式存储的val step = if (audioChannel == 2) {if (sampleByte == 2) {4} else {2}} else {if (sampleByte == 2) {2} else {1}}var i = 0var sum = 0.0while (i < pcmByteArray.size) {// 绝对值求和sum += if (sampleByte == 2) {// 根据大小端把两个byte转换成shortval sample = byteToShort(isBigEndian, pcmArray[i], pcmArray[i + 1])Math.abs(sample.toInt()).toDouble()} else {Math.abs(pcmByteArray[i].toInt()).toDouble()}i += step}// 基于平均采样点,计算出db值return (20 * log10(sum / (pcmByteArray.size / step))).toInt()}
通过上述代码,我们可以基于解码出的PCM,计算出对应的db值,但是这种方式存在一个最大的缺点就是耗时严重,一个5分钟的音频,需要二三十秒,甚至更长,这完全是无法忍受的。我们不得不寻求更高效的解决方案。
IOS平台提供了AVFoundation库,用于音视频操作。我们可以基于它直接提取出整首歌的PCM数据,然后计算出分贝值。大体流程如下所示:
AVAudioFile加载本地音频文件,获取采样率、声道数等音频信息。AVAudioCommonFormat构建AVAudioFormat,表示一种音频格式。AVAudioFormat和音频采样帧数(等于采样率乘以时长)构建AVAudioPCMBuffer,并且通过AVAudioFile.read把音频数据解码到AVAudioPCMBuffer,获取到解码后的PCM Buffer。AVAudioPCMBuffer包含了多个声道的数据,多个声道的数据是如何存储的那?可以通过AVAudioFormat.isInterleaved进行判断,若是true,则表示多个声道数据是交替存储的,即:LRLRLRLR方式,若是false,则表示多个声道数据是分开存储的,即:LLLLRRRR模式。AVAudioPCMBuffer提供的PCM数据,针对单一声道,计算出分贝值,计算方式与Android平台类似,此处不再赘述。可见,iOS平台对音频数据的提取提供了非常友好的API,并且测试下来发现,同一首5分钟的歌曲,耗时只有两三秒,各个方面,都吊打Android。
除了Android和iOS平台的多媒体框架,我们还可以基于FFmpeg实现跨平台的PCM数据提取。FFmpeg是一个开源的跨平台多媒体框架,关于FFmpeg的介绍,网上的资料很多,这里就不再赘述了。
通过FFmpeg解码本地音视频文件,还是比较简单的,整体流程如下所示:

AVPacket,然后交给解码器解码,最后从解码器获取PCM原始数据帧AVFrame(av_packet_alloc -> avcodec_receive_frame)。AV_SAMPLE_FMT_S16P格式(swr_convert)。不同于MediaCodec解码出的PCM是按照LRLRLR方式存储,FFmpeg解码出的PCM存储格式更加丰富,如下所示:
enum AVSampleFormat {AV_SAMPLE_FMT_NONE = -1,AV_SAMPLE_FMT_U8, ///< unsigned 8 bitsAV_SAMPLE_FMT_S16, ///< signed 16 bitsAV_SAMPLE_FMT_S32, ///< signed 32 bitsAV_SAMPLE_FMT_FLT, ///< floatAV_SAMPLE_FMT_DBL, ///< doubleAV_SAMPLE_FMT_U8P, ///< unsigned 8 bits, planarAV_SAMPLE_FMT_S16P, ///< signed 16 bits, planarAV_SAMPLE_FMT_S32P, ///< signed 32 bits, planarAV_SAMPLE_FMT_FLTP, ///< float, planarAV_SAMPLE_FMT_DBLP, ///< double, planarAV_SAMPLE_FMT_S64, ///< signed 64 bitsAV_SAMPLE_FMT_S64P, ///< signed 64 bits, planarAV_SAMPLE_FMT_NB ///< Number of sample formats. DO NOT USE if linking dynamically};
除了有有符号和无符号的区别外,还可以是short、float和double类型,采样位数也可以是8 bit、16 bit、32 bit和64 bit。除此之外,即使同样是signed 16 bits,也存在Packed和Planar的区别。
对于双声道音频来说,Packed表示两个声道的数据交错存储,交织在一起,即:LRLRLRLR的存储方式;Planar表示两个声道分开存储,也就是平铺分开,即:LLLLRRRR的存储方式。通过MediaCodec解码出的PCM是按照Packed方式存储的,而FFmpeg解码出的PCM则可能是其中的任意一种。
所以为了更好的归一化处理,我们会对FFmpeg解码出的PCM进行重采样,统一采样成AV_SAMPLE_FMT_S16P格式,即:每个采样点是两字节的有符号short类型,并且按照Planar方式存储。
重采样:对PCM数据进行重新采样,可以改变它的声道数、采样率和采样格式。
比如:原先的PCM音频数据是2个声道,44100采样率,32 bit单精度型。那么可以重采样成:2个声道,44100采样率,有符号short类型。
关于分贝值的计算,与上述基于Android平台的计算方式基本一致,此处就不再赘述了。
同一首5分钟的歌,通过FFmpeg提取PCM的耗时只有一两秒,提取效率至少提升了10倍以上,基本上与iOS持平,至此终于可以松一口气了。
PCM是原始采样数据,必须指定采样率、声道数和采样位数(大小端)才能播放。
通过ffplay播放PCM的命令如下所示:
fplay -ar 44100 -channels 2 -f s16le -i test.pcm参数说明:1. -ar PCM采样率2. -channels PCM通道数3. -f PCM格式:sample_fmts + le(小端)或者be(大端)sample_fmts可以通过ffplay -sample_fmts来查询
除此之外,通过Audacity也可以直接播放PCM数据:文件 -> 导入 -> 原始数据,然后选择对应的采样率、声道数、采样位数和大小端就可以播放了。
Audacity功能很强大,对于PCM的波形(采样点值)、响度(db)和频谱,都可以直接查看,如下所示:
PCM-波形

PCM-响度

PCM-频谱

为什么Android平台解封装、解码音频提取PCM的速度这么慢?
具体原因我也无法猜测,待深入研究之后再来解答吧,如果音视频的大佬有相关经验,也麻烦告知。