BatchNormalizationLayer

BatchNormalizationLayer[]

表示通过学习数据均值和方差可使输入数据归一化的可训练网层.

更多信息和选项

范例

打开所有单元关闭所有单元

基本范例  (2)

创建一个 BatchNormalizationLayer

创建一个接受向量并返回向量的已初始化的 BatchNormalizationLayer

把该层应用于输入向量:

范围  (4)

Ports  (2)

创建一个接受 3 阶数组并返回 3 阶数组的已初始化的 BatchNormalizationLayer

创建一个接受向量并返回向量的已初始化的 BatchNormalizationLayer

把该层应用于一批输入向量中:

使用 NetEvaluationMode 来使用 BatchNormalizationLayer 的训练行为:

Parameters  (2)

"Biases"  (1)

创建一个带有 "Biases" 参数初始值的 BatchNormalizationLayer

提取 "Biases" 参数:

NetInitialize 选择的 "Biases" 默认值是零向量:

"Scaling"  (1)

创建一个已初始化的 BatchNormalizationLayer,其中设 "Scaling" 参数为零,"Biases" 参数设为自定义的值:

把该层应用于任何输入,返回 "Biases" 参数的值:

NetInitialize 选择的 "Scaling" 默认值是 1 的向量:

选项  (2)

"Epsilon"  (1)

创建一个带有明确指定 "Epsilon" 参数的 BatchNormalizationLayer

提取 "Epsilon" 参数:

"Momentum"  (1)

创建一个 BatchNormalizationLayer,其中明确指定 "Momentum" 参数:

提取 "Momentum" 参数:

应用  (1)

BatchNormalizationLayer 通常被插入在 ConvolutionLayer 和它的激活函数之间,以稳定并加速训练:

属性和关系  (1)

在一般的运算中,BatchNormalizationLayer 计算以下函数:

在含有一个通道的向量实例上运行 BatchNormalizationLayer

手动计算,得到同样的结果:

可能存在的问题  (3)

指定 "MovingVariance" 参数的负值,在计算时会导致数值错误:

BatchNormalizationLayer 不可以被初始化,直到知道其所有的输入和输出维数:

不能共享 BatchNormalizationLayer"MovingMean""MovingVariance" 数组:

创建具有共享数组的 BatchNormalizationLayer

在一些数据上训练:

提取训练过的批量归一化层:

"Scaling""Biases" 数组被共享,但 "MovingMean""MovingVariance" 数组没有:

Wolfram Research (2016),BatchNormalizationLayer,Wolfram 语言函数,https://reference.wolfram.com/language/ref/BatchNormalizationLayer.html (更新于 2020 年).

文本

Wolfram Research (2016),BatchNormalizationLayer,Wolfram 语言函数,https://reference.wolfram.com/language/ref/BatchNormalizationLayer.html (更新于 2020 年).

CMS

Wolfram 语言. 2016. "BatchNormalizationLayer." Wolfram 语言与系统参考资料中心. Wolfram Research. 最新版本 2020. https://reference.wolfram.com/language/ref/BatchNormalizationLayer.html.

APA

Wolfram 语言. (2016). BatchNormalizationLayer. Wolfram 语言与系统参考资料中心. 追溯自 https://reference.wolfram.com/language/ref/BatchNormalizationLayer.html 年

BibTeX

@misc{reference.wolfram_2024_batchnormalizationlayer, author="Wolfram Research", title="{BatchNormalizationLayer}", year="2020", howpublished="\url{https://reference.wolfram.com/language/ref/BatchNormalizationLayer.html}", note=[Accessed: 19-December-2024 ]}

BibLaTeX

@online{reference.wolfram_2024_batchnormalizationlayer, organization={Wolfram Research}, title={BatchNormalizationLayer}, year={2020}, url={https://reference.wolfram.com/language/ref/BatchNormalizationLayer.html}, note=[Accessed: 19-December-2024 ]}