音声処理
Wolfram言語は,他のパワフルな数学およびアルゴリズム機能と完全に統合した,プログラム的でありインタラクティブでもある音声処理に対する組込のサポートを提供している.音声オブジェクトは,線形および非線形フィルタを適用したり,エフェクトを加えたり,音声特定の関数を使って解析することもできれば,Wolfram言語の他の部分との密接な統合を利用して処理することもできる.
LowpassFilter[audio,ωc] | カットオフ周波数が ωc のローパスフィルタを音声に適用する |
HighpassFilter[audio,ωc] | カットオフ周波数が ωc のハイパスフィルタを音声に適用する |
WienerFilter[audio,r] | 範囲 r サンプルのWienerフィルタを音声に適用する |
MeanFilter[audio,r] | 範囲 r サンプルの平均値フィルタを音声に適用する |
TotalVariationFilter[audio] | ノイズ除去フィルタを音声に適用する |
GaussianFilter[audio, r] | 範囲 r サンプルのガウシアンフィルタを音声に適用する |
Wolfram言語に存在するフィルタリング関数の多くは,そのまま音声オブジェクトに適用することができる.多くの場合,カットオフ周波数を周波数Quantityとして指定することができる.
WienerFilterを使って,録音のノイズを除去する:
離散時間伝達関数モデルを使うと,RecurrenceFilterで音声オブジェクトにフィルタを適用することができる.
RecurrenceFilter[tf,audio] | TransferFunctionModel tf で定義された離散時間フィルタを使う |
BiquadraticFilterModel[{"type",spec}] | 指定された {"type",spec}の双二次フィルタを作る |
ButterworthFilterModel[{"type",spec}] | 指定された {"type",spec}のButterworthフィルタを作る |
TransferFunctionModel[m,s] | 複素変数 s を持つ伝達関数行列 m のモデルを表す |
ToDiscreteTimeModel[lsys,τ] | サンプリング周期が τ の連続時間系モデル lsys の離散時間近似を与える |
アナログ(連続時間)フィルタモデルの一つを使う最も簡単な方法は,ToDiscreteTimeModelを使って伝達関数を離散化し,RecurrenceFilterを使ってその結果を音声オブジェクトに適用するというものである.
TransferFunctionModelを使ってコムフィルタを定義し,それを音声オブジェクトに適用する:
AudioTimeStretch[audio,r] | 指定された因数 r 分だけの時間の引き伸ばしを音声に適用する |
AudioPitchShift[audio,r] | 指定された割合 r のシフトピッチを音声に適用する |
AudioReverb[audio] | 音声に残響エフェクトを加える |
AudioDelay[audio,delay] | 音声に遅延時間 delay の遅延エフェクトを適用する |
AudioChannelMix[audio,desttype] | 指定された desttype に音声のチャンネルを混ぜる |
任意数のチャンネルへのダウンミキシングおよびアップミキシングは,AudioChannelMixを使って実行することができる.
Audioオブジェクトの算術機能を利用して,録音を変更することができる.属性NumericFunctionあるいはListableを持つWolfram言語の演算子および関数はすべて音声オブジェクトで利用できるよう多重定義されている.
Tanh関数を使って,音声オブジェクトに滑らかなディストーションを適用する:
ChebyshevT関数を使って「ウェーブシェイパー」エフェクトを得る:
全信号の解析
AudioMeasurements[audio,"prop"] | audio 全体についての特性"prop"を計算する |
AudioMeasurementsを使うと,時間領域特性も周波数領域特性も測定することができる.この特性は,音声オブジェクトのチャンネル上の平均サンプル値上で計算される.
AudioMeasurementsとは異なり,多重定義された関数は平坦化されたデータに適用される(入力がマルチチャンネルの音声オブジェクトの場合,すべてのチャンネルからのサンプル値は1つの配列に平滑化される).
分割された信号の解析
AudioLocalMeasurements[audio,"prop"] | audio の分割について,特性"prop"をローカルに計算する |
AudioIntervals[audio,crit] | 基準 crit を満たす音声区間を求める |
AudioLocalMeasurementsでは,特性はローカルで計算される.信号はPartitionGranularityの指定に従って分割され,要求された特性はそれぞれの部分について計算される.結果は,タイムスタンプが各部分の中心の時間に対応するTimeSeriesとして返される.
MFCC(メル周波数ケプストラム係数)の測度値を,ExampleData["Audio"]集合のさまざまな要素間の距離を計算する機能として使う:
AudioIntervalsを使うと,ユーザ定義の基準を満たす区間を抽出することができる.
高レベル解析
SpeechRecognize[audio] | audio の音声を認識し,これを文字列として返す |
PitchRecognize[audio] | audio のメインピッチを認識する |
AudioIdentify[audio] | audio が何の録音か識別する |
機械学習の関数はすべてAudioオブジェクトを認知しており,意味的に重要な特徴抽出から計算を実行する.
Classify[{audio1class1,audio2class2,…}] | 与えられた例やクラスで訓練されたClassifierFunction[…]を生成する |
FeatureExtraction[{audio1,audio2,…}] | 与えられた例で訓練されたFeatureExtractorFunction[…]を生成する |
FeatureSpacePlot[{audio1,audio2,…}] | audioi から抽出された特徴を散布図としてプロットする |
FeatureSpacePlotを使って音声コレクションの特徴をプロットする.
FeatureSpacePlotを使って,意味的に重要な空間で信号のリストをプロットする:
ニューラルネットワーク
Audioオブジェクトは,パワフルなニューラルネットワークフレームワークと緊密に統合されている.NetEncoderはAudioオブジェクト等のさまざまな高レベル構造にタメノニューラルネットの入り口を提供する.
"Audio" | 信号を波形として符号化する |
"AudioSpectrogram" | 信号をすペクトログラムとして符号化する |
"AudioMFCC" | 信号をメルスペクトログラムとして符号化する |
音声NetEncoderの例
いろいろな種類の特徴を計算するためには,異なるエンコーダを使うことができる.もとの信号の情報をすべて維持するもの("Audio"や"AudioSTFT"等)もあれば,いくらかの情報を捨てて次元を劇的に減少させるもの("AudioMFCC"等)もある.
NetTrain[net,data] | データセット data でネットワーク net を訓練する |
NetChain[{layer1,layer2,…}] | layeri の出力が layeri+1 の入力と接続されるネットを指定する |
NetMeasurements[net,data,measurement] | data で評価された net に対してリクエストされた measurement を計算する |
NetChainおよびNetGraphを使うと,任意の位相のネットワークを作成し,GatedRecurrentLayerやLongShortTermMemoryLayer等の列に焦点を当てた層を使って可変長の信号を解析することができる.