機械学習法

Wolfram言語は回帰,分類,クラスタリング,次元削減等を行うためのさまざまな機械学習法を提供する.

分類 (Classify)

"ClassDistributions" 学習済み分布を使用する

"DecisionTree" 決定木を使用する

"GradientBoostedTrees" 勾配ブースティングで訓練した木のアンサンブルを使って分類する

"LogisticRegression" 特徴量の線形結合からの確率を使用する

"Markov" 特徴量系列に対してマルコフ(Markov)モデルを使用する (テキスト,Bag-of-Tokens等のみ)

"NaiveBayes" 特徴量の確率的独立性を仮定して分類する

"NearestNeighbors" 最近傍の例を使用する

"NeuralNetwork" 人工ニューラルネットワークを使用する

"RandomForest" 決定木のBreimanCutlerアンサンブルを使用する

"SupportVectorMachine" サポートベクターマシンを使用する

回帰 (Predict)

"DecisionTree" 決定木を使用する

"GradientBoostedTrees" 勾配ブースティングで訓練された木のアンサンブルを使用する

"LinearRegression" 特徴の線形結合を使用する

"NearestNeighbors" 最近傍の例を使用する

"NeuralNetwork" 人工ニューラルネットワークを使用する

"RandomForest" 決定木のBreimanCutlerアンサンブルを使用する

"GaussianProcess" 関数よりも優先してガウス過程を使用する

クラスタリング (FindClusters)

"Agglomerate" 単リンククラスタリング法

"DBSCAN" ノイズを含むアプリケーションの密度ベースの空間クラスタリング

"GaussianMixture" 混合ガウス(正規)分布を使用する

"JarvisPatrick" JarvisPatrickクラスタリング法

"KMeans" k平均クラスタリングアルゴリズム

"KMedoids" メドイドによる分割

"MeanShift" Mean-Shiftクラスタリング法

"NeighborhoodContraction" データ点を高密度領域に移動する

"SpanningTree" 最小全域木クラスタリング法

"Spectral" スペクトラルクラスタリング法

分布のモデル (LearnDistribution)

"ContingencyTable" データを離散化して可能な各確率を保存する

"DecisionTree" 決定木を使用する

"GaussianMixture" 混合ガウス(正規)分布を使用する

"KernelDensityEstimation" カーネル混合分布を使用する

"Multinormal" 多変量正規(ガウス)分布を使用する

次元削減 (DimensionReduction)

"Autoencoder" 訓練可能なオートエンコーダを使用する

"Hadamard" アダマール(Hadamard)行列を使ってデータを投影する

"Isomap" 等長写像

"LatentSemanticAnalysis" 潜在的意味解析法

"Linear" 最適の線形法を自動的に選択する

"LLE" 局所線形埋込み

"PrincipalComponentsAnalysis" 主成分分析法

"MultidimensionalScaling" 計量多次元尺度構成法

"TSNE" t分布型確率的近傍埋込み法

"UMAP" 一様多様体の近似と投影(Uniform Manifold Approximation and Projection)