"Markov" (机器学习方法)

详细信息与子选项

  • 在马尔可夫模型中,在训练时,为每个类别计算一个 n-gram 语言模型. 在测试时,每个类的概率根据贝叶斯定理 计算,其中 由给定类别的语言模型给出, 是类别先验.
  • 可以给出下列选项:
  • "AdditiveSmoothing" .1要使用的平滑参数
    "MinimumTokenCount"Automatic要考虑的 n-gram 的最小计数
    "Order" Automaticn-gram 长度
  • "Order"n 时,该方法分割 (n+1)-gram 中的序列.
  • "Order"0 时,该方法使用 Unigram(一元,或称单一符号). 该模型可以称为 Unigram 模型或朴素的贝叶斯模型.
  • "AdditiveSmoothing" 的值被添加至所有的 n-gram 计数. 它用于规范语言模型.

范例

打开所有单元关闭所有单元

基本范例  (1)

在标记的示例上训练分类器函数:

获取关于分类器的信息:

对新范例分类:

选项  (4)

"AdditiveSmoothing"  (2)

使用 "AdditiveSmoothing" 子选项训练分类器:

通过改变 "AdditiveSmoothing" 的值在不平衡数据集上训练两个分类器:

查看不平衡元素的相应概率:

"Order"  (2)

通过指定 "Order" 训练分类器:

生成真实单词和随机字符串的数据集:

使用不同的值作为 "Order" 生成分类器:

在新的真是单词上比较这些分类器的概率: