機械学習法
Wolfram言語は回帰,分類,クラスタリング,次元削減等を行うためのさまざまな機械学習法を提供する.
分類 (Classify)
"ClassDistributions" — 学習済み分布を使用する
"DecisionTree" — 決定木を使用する
"GradientBoostedTrees" — 勾配ブースティングで訓練した木のアンサンブルを使って分類する
"LogisticRegression" — 特徴量の線形結合からの確率を使用する
"Markov" — 特徴量系列に対してマルコフ(Markov)モデルを使用する (テキスト,Bag-of-Tokens等のみ)
"NaiveBayes" — 特徴量の確率的独立性を仮定して分類する
"NearestNeighbors" — 最近傍の例を使用する
"NeuralNetwork" — 人工ニューラルネットワークを使用する
"RandomForest" — 決定木のBreiman–Cutlerアンサンブルを使用する
"SupportVectorMachine" — サポートベクターマシンを使用する
回帰 (Predict)
"DecisionTree" — 決定木を使用する
"GradientBoostedTrees" — 勾配ブースティングで訓練された木のアンサンブルを使用する
"LinearRegression" — 特徴の線形結合を使用する
"NearestNeighbors" — 最近傍の例を使用する
"NeuralNetwork" — 人工ニューラルネットワークを使用する
"RandomForest" — 決定木のBreiman–Cutlerアンサンブルを使用する
"GaussianProcess" — 関数よりも優先してガウス過程を使用する
クラスタリング (FindClusters)
"Agglomerate" — 単リンククラスタリング法
"DBSCAN" — ノイズを含むアプリケーションの密度ベースの空間クラスタリング
"GaussianMixture" — 混合ガウス(正規)分布を使用する
"JarvisPatrick" — Jarvis–Patrickクラスタリング法
"KMeans" — k平均クラスタリングアルゴリズム
"KMedoids" — メドイドによる分割
"MeanShift" — Mean-Shiftクラスタリング法
"NeighborhoodContraction" — データ点を高密度領域に移動する
"SpanningTree" — 最小全域木クラスタリング法
"Spectral" — スペクトラルクラスタリング法
分布のモデル (LearnDistribution)
"ContingencyTable" — データを離散化して可能な各確率を保存する
"DecisionTree" — 決定木を使用する
"GaussianMixture" — 混合ガウス(正規)分布を使用する
"KernelDensityEstimation" — カーネル混合分布を使用する
"Multinormal" — 多変量正規(ガウス)分布を使用する
次元削減 (DimensionReduction)
"Autoencoder" — 訓練可能なオートエンコーダを使用する
"Hadamard" — アダマール(Hadamard)行列を使ってデータを投影する
"Isomap" — 等長写像
"LatentSemanticAnalysis" — 潜在的意味解析法
"Linear" — 最適の線形法を自動的に選択する
"LLE" — 局所線形埋込み
"PrincipalComponentsAnalysis" — 主成分分析法
"MultidimensionalScaling" — 計量多次元尺度構成法
"TSNE" — t分布型確率的近傍埋込み法
"UMAP" — 一様多様体の近似と投影(Uniform Manifold Approximation and Projection)