"LogisticRegression" (機械学習メソッド)

詳細とサブオプション

  • "LogisticRegression"は,数値的特徴 , の線形結合で各クラスの対数確率をモデル化する.ただし,はクラス k のパラメータに対応する.パラメータ行列の推定 は,損失関数 sum_(i=1)^m-log(P_(theta)(class=y_i|x_i))+lambda_1 sum_(i=1)^nTemplateBox[{{theta, _, i}}, Abs]+(lambda_2)/2 sum_(i=1)^ntheta_i^2を最小化することで行われる.
  • 次は使用可能なオプションである.
  • "L1Regularization" 0損失関数中の の値
    "L2Regularization" Automatic損失関数中の の値
    "OptimizationMethod" Automatic使用するメソッド
  • "OptimizationMethod"の可能な設定には次がある.
  • "LBFGS"有限メモリのBroydenFletcherGoldfarbShannoアルゴリズム
    "StochasticGradientDescent"確率勾配メソッド
    "Newton"ニュートンメソッド

例題

すべて開くすべて閉じる

  (2)

ラベル付きの例で分類器関数を訓練する:

分類器についての情報を得る:

新たな例を分類する:

正規分布に従うデータを生成する:

可視化する:

このデータ集合で分類器を訓練する:

訓練集合と各クラスの確率分布を特徴の関数としてプロットする:

オプション  (6)

"L1Regularization"  (2)

"L1Regularization"オプションを使って分類器を訓練する:

データを生成し,可視化する:

"L1Regularization"の値を変えていくつかの分類器を訓練し,結果を比較する:

"L2Regularization"  (2)

"L2Regularization"オプションを使って分類器を訓練する:

データを生成し,可視化する:

"L2Regularization"の値を変えていくつかの分類器を訓練し,結果を比較する:

"OptimizationMethod"  (2)

特定の"OptimizationMethod"を使って分類器を訓練する:

"Newton"メソッドを使って分類器を訓練する:

"StochasticGradientDescent"メソッドを使って分類器を訓練する:

それぞれの訓練時間を比較する: