"LinearRegression" (机器学习方法)

详细信息与子选项

  • 使用数值特征 的线性组合,线性回归预测数值输出 y. 条件概率 根据 ,其中 被模拟.
  • 参数向量 θ 的估计是根据最小化损失函数 1/2sum_(i=1)^m(y_i-f(theta,x_i))^2+lambda_1sum_(i=1)^nTemplateBox[{{theta, _, i}}, Abs]+(lambda_2)/2 sum_(i=1)^ntheta_i^2得到,其中,m 是例子数,n 是数值特征数.
  • 可以给出以下子选项:
  • "L1Regularization" 0损失函数中的
    "L2Regularization" Automatic损失函数中的
    "OptimizationMethod" Automatic使用何种优化方法
  • "OptimizationMethod" 选项的可能设置是:
  • "NormalEquation"线性代数方法
    "StochasticGradientDescent"随机梯度方法
    "OrthantWiseQuasiNewton"orthant-wise quasi-Newton 方法
  • 对于这种方法,Information[PredictorFunction[],"Function"] 给出简单的表达式根据特征计算预测值.

范例

打开所有单元关闭所有单元

基本范例  (2)

在标记的范例上培训预测器:

查看 Information

预测一个新范例:

产生二维数据:

培训预测函数:

比较数据和预测值,查看标准差:

选项  (5)

"L1Regularization"  (2)

使用 "L1Regularization" 选项培训预测器:

产生培训集并可视化:

通过使用 "L1Regularization" 选项的不同值培训两个预测器:

查看预测器函数,看多大的 L1 正则化已经强制一个参数为 0:

"L2Regularization"  (2)

使用 "L2Regularization" 选项培训预测器:

产生培训集并可视化:

通过使用 "L2Regularization" 选项的不同值培训两个预测器:

查看预测器函数,看 L2 正则化如何减小参数向量的模:

"OptimizationMethod"  (1)

产生大的培训集:

用不同的优化方法培训预测器并比较它们的培训时间: