"LogisticRegression" (机器学习方法)

详细信息与子选项

  • "LogisticRegression" 通过数值特征 , 的线性组合模拟各个类别的对数概率,其中 对应于类别 k 的参数. 参数矩阵 的估计通过最小化损失函数 sum_(i=1)^m-log(P_(theta)(class=y_i|x_i))+lambda_1 sum_(i=1)^nTemplateBox[{{theta, _, i}}, Abs]+(lambda_2)/2 sum_(i=1)^ntheta_i^2 得到.
  • 可以给出下列选项:
  • "L1Regularization" 0损失函数中 的值
    "L2Regularization" Automatic损失函数中 的值
    "OptimizationMethod" Automatic使用什么方法
  • "OptimizationMethod" 的可能设置包括:
  • "LBFGS"BroydenFletcherGoldfarbShanno 算法的有限内存
    "StochasticGradientDescent"随机梯度法
    "Newton"牛顿法

范例

打开所有单元关闭所有单元

基本范例  (2)

在标记的示例上训练分类器函数:

获取关于分类器的信息:

对新范例分类:

生成一些正态分布的数据:

可视化:

在此数据集上训练分类器:

将各个类别作为特征的函数,绘制各个类别的训练集和概率分布:

选项  (6)

"L1Regularization"  (2)

使用 "L1Regularization" 选项训练分类器:

生成一些数据,并进行可视化:

使用不同的值作为 "L1Regularization" 训练或干分类器,并比较结果:

"L2Regularization"  (2)

使用 "L2Regularization" 选项训练分类器:

生成一些数据,并进行可视化:

使用不同的值作为 "L2Regularization" 训练或干分类器,并比较结果:

"OptimizationMethod"  (2)

使用特定的 "OptimizationMethod" 训练分类器:

使用 "Newton" 方法训练分类器:

使用 "StochasticGradientDescent" 方法训练分类器:

比较相应的训练时间: