audioFlux: کتابخانه ای برای تجزیه و تحلیل صدا و موسیقی، استخراج ویژگی.

ارسال دسته:
C/Python
اسکرین شات ها
شرح
کتابخانه ای برای تجزیه و تحلیل و استخراج ویژگی های صوتی و موسیقی که از ده ها روش تحلیل و تبدیل فرکانس زمانی و همچنین صدها ترکیب ویژگی های دامنه زمان و دامنه فرکانس متناظر پشتیبانی می کند، می تواند برای آموزش به شبکه یادگیری عمیق ارائه شود. و می توان از آن برای مطالعه طبقه بندی، جداسازی، بازیابی اطلاعات موسیقی (MIR)، ASR و سایر وظایف در زمینه صوتی استفاده کرد.
پیوند به کد منبع
https://github.com/libAudioFlux/audioFlux
مجوز مجاز
با
چگونه آن را ساختم
-
استخراج و ترکیب ویژگی های سیستماتیک و چند بعدی می تواند به طور انعطاف پذیر برای تحقیق و تحلیل وظایف مختلف استفاده شود.
-
عملکرد کارآمد است، هسته بیشتر در C پیادهسازی میشود، و شتاب سختافزاری FFT بر اساس پلتفرمهای مختلف برای استخراج ویژگیهای داده در مقیاس بزرگ مناسب است.
-
این برای پایان تلفن همراه قابل اجرا است و از محاسبه بیدرنگ جریان صوتی در انتهای تلفن همراه پشتیبانی می کند.
منابع/اطلاعات اضافی
سند
نسخه ی نمایشی کد
pip install audioflux
import numpy as np
import audioflux as af
import matplotlib.pyplot as plt
from audioflux.display import fill_spec
# Get a 220Hz's audio file path
sample_path = af.utils.sample_path('220')
# Read audio data and sample rate
audio_arr, sr = af.read(sample_path)
# Extract mel spectrogram
spec_arr, mel_fre_band_arr = af.mel_spectrogram(audio_arr, num=128, radix2_exp=12, samplate=sr)
spec_arr = np.abs(spec_arr)
# Extract mfcc
mfcc_arr, _ = af.mfcc(audio_arr, cc_num=13, mel_num=128, radix2_exp=12, samplate=sr)
# Display
audio_len = audio_arr.shape[0]
# calculate x/y-coords
x_coords = np.linspace(0, audio_len / sr, spec_arr.shape[1] + 1)
y_coords = np.insert(mel_fre_band_arr, 0, 0)
fig, ax = plt.subplots()
img = fill_spec(spec_arr, axes=ax,
x_coords=x_coords, y_coords=y_coords,
x_axis='time', y_axis='log',
title='Mel Spectrogram')
fig.colorbar(img, ax=ax)
fig, ax = plt.subplots()
img = fill_spec(mfcc_arr, axes=ax,
x_coords=x_coords, x_axis='time',
title='MFCC')
fig.colorbar(img, ax=ax)
plt.show()