您的位置:首页 > 其它

用K-means聚类算法实现音调的分类与可视化

2016-03-14 17:49 836 查看
本文由 伯乐在线 - ggspeed 翻译,耶鲁怕冷 校稿。未经许可,禁止转载!

英文出处:jared polivka。欢迎加入翻译组


利用 K-means 聚类算法来聚类和可视化音调

Galvanize 数据科学课程包括了一系列在科技产业的数据科学家中流行的机器学习课题,但是学生在 Galvanize 获得的技能并不仅限于那些最流行的科技产业应用。例如,在 Galvanize
的数据科学强化课中,音频信号和音乐分析较少被讨论,却它是一个有趣的机器学习概念应用。借用 Galvanize 课程中的课题,本篇教程为大家展示了如何利用 K-means 聚类算法从录音中分类和可视化音调,该方法会用到以下几个
python 工具包: NumPy/SciPy, Scikit-learnPlotly


K-means 聚类是什么

k-means 聚类算法是基于未标识数据集将相关项聚类的常用技术。给定 K 值后,该算法会将每个数据点划分到离其最近的中心点对应的簇,从而将整个数据集分成 k 组。k-means 算法有很广泛的应用,比如识别手机发射塔的有效位置,或为制造商选择服装的型号。而本教程将会为大家展示如何应用 k-means 根据音调来给音频分类。


音调的简单入门

一个音符是一串叠加的不同频率的 Sine 型波,而识别音符的音调需要识别那些听上去最突出的 Sine 型波的频率。

最简单的音符仅包含一个 Sine 型波:







绘制的强度图谱中,每个组成要素频率的大小显示了上面波形的一个单独的频率。





主流乐器制造出来的声音是由很多 sine 型波元素构成的,所以他们比上面展示的纯 sine 型波听起来更复杂。同样的音符(E3),由吉他弹奏出来的波形听看起来如下:









它的强度图谱显示了一个更大的基础频率的集合:





k-means 可以运用样例音频片段的强度图谱来给音调片段分类。给定一个有 n 个不同频率的强度图谱集合,k-means 将会给样例图谱分类,从而使在 n 维空间中每个图谱到它们组中心的欧式距离最小。


使用Numpy/SciPy从一个录音中创建数据集

本教程将会使用一个有 3 个不同音调的录音小样,每个音调是由吉他弹奏了 2 秒。





运用 SciPy 的 wavfile 模块可以轻松将一个 .wav 文件 转化为 NumPy 数值。

Python

1234import scipy.io.wavfile as wavfilename = 'Guitar - Major Chord - E Gsharp B.wav'# wav.read returns the sample_rate and a numpy array containing each audio sample from the .wav filesample_rate, recording = wav.read(filename)
这段录音应该被分为多个小段,从而使每段的音调都可以被独立地分类。Python

1

2

3

4

5

6

7

8

9

10

11

def
split_recording(recording,
segment_length,
sample_rate):

segments
=
[]

index
=
0

while
index
<
len(recording):

segment
=
recording[index:index
+
segment_length<em>sample_rate]

segments.append(segment)

index
+=
segment_length</em>sample_rate

return
segments

segment_length
=
.5
#
length in seconds

segments
=
split_recording(recording,
segment_length,
sample_rate)

每一段的强度图谱可以通过傅里叶变换获得;傅里叶变换会将波形数据从时间域转换到频率域。以下的代码展示了如何使用 NumPy 实现傅里叶变换(Fourie transform)模块。

Python

12345678910111213141516def calculate_normalized_power_spectrum(recording, sample_rate): # np.fft.fft returns the discrete fourier transform of the recording fft = np.fft.fft(recording) number_of_samples = len(recording) # sample_length is the length of each sample in seconds sample_length = 1./sample_rate # fftfreq is a convenience function which returns the list of frequencies measured by the fft frequencies = np.fft.fftfreq(number_of_samples, sample_length) positive_frequency_indices = np.where(frequencies>0) # positive frequences returned by the fft frequencies = frequencies[positive_frequency_indices] # magnitudes of each positive frequency in the recording magnitudes = abs(fft[positive_frequency_indices]) # some segments are louder than others, so normalize each segment magnitudes = magnitudes / np.linalg.norm(magnitudes) return frequencies, magnitudes
一些辅助函数会创建一个空的 NumPy 数值并将我们的样例强度图谱放入其中。Python

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

def
create_power_spectra_array(segment_length,
sample_rate):

number_of_samples_per_segment
=
int(segment_length
*
sample_rate)

time_per_sample
=
1./sample_rate

frequencies
=
np.fft.fftfreq(number_of_samples_per_segment,
time_per_sample)

positive_frequencies
=
frequencies[frequencies>0]

power_spectra_array
=
np.empty((0,
len(positive_frequencies)))

return
power_spectra_array

def
fill_power_spectra_array(splits,
power_spectra_array,
fs):

filled_array
=
power_spectra_array

for
segment
in
splits:

freqs,
mags
=
calculate_normalized_power_spectrum(segment,
fs)

filled_array
=
np.vstack((filled_array,
mags))

return
filled_array

power_spectra_array
=
create_power_spectra_array(segment_length,sample_rate)

power_spectra_array
=
fill_power_spectra_array(segments,
power_spectra_array,
sample_rate)

“power_spectra_array “是我们的训练数据集,它包含了一个强度图谱,在此图谱中录音按每 0.5 秒的间隔进行了分段。


利用 Scikit-learn 来执行 k-means

Scikit-learn 有一个易用的 k-means 实现。我们的音频样例包括 3 个不同的音调,所以将 k 设置为 3。

Python

1234from sklearn.cluster import KMeanskmeans = KMeans(3, max<em>iter = 1000, n_init = 100)kmeans.fit_transform(power_spectra_array)predictions = kmeans.predict(power_spectra_array)
“predictions”是一个 Python 数据,它包含了 12 个音频分段的分组标签(一个任意的整数)。Python

1

2

print
predictions

=>
[2
2
2
2
0
0
0
0
1
1
1
1]

这个数组说明了在听这段音频时连续音频分段被正确地分在了一起。


使用 Plotly 可视化结果

为了更好的理解预测结果,需要绘制每个样例的强度图谱,每个样例均用颜色来标记出其对应的 k-means 分组结果。

Python

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

#
find x-values for plot (frequencies)

number<em>of_samples
=
int(segment_length*sample_rate)

sample_length
=
1./sample_rate

frequencies
=
np.fft.fftfreq(number_of_samples,
sample_length)

#
create plot

traces
=
[]

for
pitch_id,
color
in
enumerate(['red','blue','green']):

for
power_spectrum
in
power_spectra_array[predictions
==
pitch_id]:

trace
=
Scatter(x=frequencies[0:500],

y=power_spectrum[0:500],

mode='lines',

showlegend=False,

line=Line(shape='linear',

color=color,

opacity
=
.01,

width
=
1))

traces.append(trace)

layout
=
Layout(xaxis=XAxis(title='Frequency
(Hz)'),

yaxis=YAxis(title
=
'Amplitude (normalized)'),

title
=
'Power Spectra of Sample
Audio Segments')

data_to_plot
=
Data(traces)

fig
=
Figure(data=data_to_plot,
layout=layout)

#
py.iplot plots inline using IPython Notebook

py.iplot(fig,
filename
=
'K-Means Classification
of Power Spectrum')

下面的图中每个有色的细线代表了样例 .wav 文件中 12 个音频分段的强度图谱。不同颜色的线表示了 k-means 预测出来的分段音调。其中蓝色,绿色,红色图谱的高峰分别在 82.41 Hz (E), 103.83 Hz (G#), and 123.47 Hz (B),这些是音频小样的音符。音频小样中频率最强的是低频,所以只有由 FFT (快速傅里叶变换)测量出的最低的 500 个频率被包含进了以下图表。



绘制在 3 个采样音调中共有的 2 个最强泛音的振幅,这种自然的聚类过程便十分明显了。





Learn More at Galvanize!

k-means 是 Galvanize 数据科学强化项目中众多机器学习课题的一个。如果感兴趣,可以在这里学到更多。

问啊APP,程序员答题神器,解决你所有的技术难题, (上问啊APP 了解更多) http://t.cn/R4vE2d7 下载注册送5元 快去下载注册吧!

问啊-定制化IT教育平台,牛人一对一服务,有问必答,开发编程社交头条 官方网站:www.wenaaa.com 下载问啊APP,参与官方悬赏,赚百元现金。

QQ群290551701 聚集很多互联网精英,技术总监,架构师,项目经理!开源技术研究,欢迎业内人士,大牛及新手有志于从事IT行业人员进入!
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: