GatedRecurrentLayer
ベクトル列を取ってそれぞれがサイズ n のベクトル列を生成する,訓練可能な回帰層を表す.
GatedRecurrentLayer[n,opts]
初期の重みやその他のパラメータについてのオプションを含む.
詳細とオプション
- GatedRecurrentLayer[n]は,ベクトル列を表す入力行列を取って同じ長さの列を出力するネットを表す.
- 入力列の各要素はサイズ k のベクトルで,出力列の各要素はサイズ n のベクトルである.
- 入力ベクトルのサイズ k は,NetGraphやNetChain等の中で自動的に推測されることが多い.
- 次は,GatedRecurrentLayer[n]で表されるネットの入出力ポートである.
-
"Input" サイズ k のベクトル列 "Output" サイズ n のベクトル列 - 入力列{x1,x2,…,xT}が与えられると,GatedRecurrentLayerは次の回帰関係を使って状態列{s1,s2,…,sT}を出力する.
-
入力ゲート it=LogisticSigmoid[Wix.xt+Wis.st-1+bi] リセットゲート rt=LogisticSigmoid[Wrx.xt+Wrs.st-1+br] メモリゲート mt=Tanh[Wmx.xt+rt*(Wms.st-1)+bm] 状態 st=(1-it)*mt+it*st-1 - GatedRecurrentLayerの上記定義は「Chung et al., Empirical Evaluation of Gated Recurrent Neural Networks on Sequence Modeling, 2014」で説明された異形に基づいている.
- GatedRecurrentLayer[n]は,単一状態のポート,"State"も持つ.これは,サイズ n のベクトルである.
- NetGraph内では,src->NetPort[layer,"State"]の形の接続を使って,再帰関係における s0に相当するGatedRecurrentLayerの状態についての初期値を与えることができる.デフォルトの初期値は零ベクトルである.
- NetGraph内では,NetPort[layer,"State"]->dst の形の接続を使って,再帰関係における sTに相当するGatedRecurrentLayerの状態についての最終的な値を得ることができる.
- NetStateObjectを使って,ネットが入力に適用されると更新されるGatedRecurrentLayerの状態値を記憶するネットを作ることができる.
- サイズ k のベクトルに作用する初期化されたGatedRecurrentLayer[…]は,次の訓練可能配列を含む.
-
"InputGateInputWeights" Wix サイズ n×k の行列 "InputGateStateWeights" Wis サイズ n×n の行列 "InputGateBiases" bi サイズ n のベクトル "ResetGateInputWeights" Wrx サイズ n×k の行列 "ResetGateStateWeights" Wrs サイズ n×n の行列 "ResetGateBiases" br サイズ n のベクトル "MemoryGateInputWeights" Wmx サイズ n×k の行列 "MemoryGateStateWeights" Wms サイズ n×n の行列 "MemoryGateBiases" bm サイズ n のベクトル - GatedRecurrentLayer[n,opts]では,"array"->valueの形の規則を使って初期値を訓練可能な配列に与えることができる.
- 次の訓練パラメータも含めることができる.
-
"Dropout" None 単位が確率的にゼロに設定されているドロップアウト正規化 LearningRateMultipliers Automatic 訓練可能な配列の学習率乗数 - "Dropout"->Noneとすると,訓練中のドロップアウトが無効になる.
- "Dropout"->p と設定すると,ドロップアウト確率 p で自動的に選択されたドロップアウトメソッドが適用される.
- "Dropout"->{"method1"->p1,"method2"->p2,…}の指定を使ってドロップアウトの特定のメソッドを対応するドロップアウト確率と結び付けることができる.
-
"VariationalWeights" 重み行列間の反復接続に適用されたドロップアウト(デフォルト) "VariationalInput" 連続する各ステップで単位の同じパターンを使って,入力からのゲートの寄与に適用されたドロップアウト "VariationalState" 連続する各ステップで単位の同じパターンを使って,前の状態からのゲートの寄与に適用されたドロップアウト "StateUpdate" 連続する各ステップで単位の異なるパターンを使って,前の状態に加えられる前に状態更新ベクトルに適用されたドロップアウト - ドロップアウトメソッドの"VariationalInput"および"VariationalState"は「Gal et al. 2016 method」に基づいているのに対し,"StateUpdate"は「Semeniuta et al. 2016 method」に,"VariationalWeights"は「 Merity et al. 2017 method」に基づいている.
- GatedRecurrentLayer[n,"Input"->shape]では,入力の形を指定することができる.次は shape の可能な形である.
-
NetEncoder[…] ベクトル列を作成するエンコーダ {len,k} 長さ k の len ベクトル列 {len,Automatic} 長さが推測される len ベクトル列 {"Varying",k} さまざまな数の,それぞれが長さ k のベクトル {"Varying",Automatic} さまざまな数の,それぞれの長さが推測されるベクトル - NumericArrayが入力として与えられると,出力はNumericArrayになる.
- Options[GatedRecurrentLayer]は層を構築する際のデフォルトオプションのリストを与える.Options[GatedRecurrentLayer[…]]はデータについて層を評価する際のデフォルトオプションのリストを与える.
- Information[GatedRecurrentLayer[…]]は層についてのレポートを与える.
- Information[GatedRecurrentLayer[…],prop]はGatedRecurrentLayer[…]の特性 prop の値を与える.使用可能な特性はNetGraphと同じである.
例題
すべて開くすべて閉じる例 (2)
長さ3のベクトルの列を作るGatedRecurrentLayerを作る:
長さ2のベクトルの列を入力として取り,長さ3のベクトルの列を生成する,ランダムに初期化されたGatedRecurrentLayerを作る:
スコープ (5)
引数 (1)
長さ3のベクトルのシーケンスを生成するGatedRecurrentLayerを作成する:
ポート (4)
文字列を取って長さ2のベクトルの列を作る,ランダムに初期化されたGatedRecurrentLayerを作る:
長さ2のベクトルの列を取って長さ2の単一のベクトルを作る,ランダムに初期化されたネットを作る:
GatedRecurrentLayerの初期状態の設定を許すNetGraphを作る:
GatedRecurrentLayerの最終状態の取得を許すNetGraphを作る:
オプション (2)
"Dropout" (2)
ドロップアウトメソッドを指定してGatedRecurrentLayerを作る:
指定されたドロップアウト確率で,ランダムに初期化された GatedRecurrentLayerを作る:
NetEvaluationModeを使ってドロップアウトの訓練動作を強制する:
アプリケーション (2)
2桁足し算と対応する数値結果を記述する,文字列からなる訓練データを作る:
入力文字列を読んで数値結果を予測する積み重ねられたGatedRecurrentLayerを使ってネットワークを作る:
xとyの数を比較することで,xとyおよびLess,Greater,Equalのいずれかを含む文字列に基づいた訓練データを作る.訓練データは長さ8までの可能なすべての文からなる:
入力を読んでLess,Greater,Equalの一つを予測するGatedRecurrentLayerを含むネットワークを作る:
特性と関係 (1)
NetStateObjectを使ってGatedRecurrentLayerの状態を記憶するネットを作ることができる:
各評価によってNetStateObjectの中に保存された状態が変更される:
テキスト
Wolfram Research (2017), GatedRecurrentLayer, Wolfram言語関数, https://reference.wolfram.com/language/ref/GatedRecurrentLayer.html.
CMS
Wolfram Language. 2017. "GatedRecurrentLayer." Wolfram Language & System Documentation Center. Wolfram Research. https://reference.wolfram.com/language/ref/GatedRecurrentLayer.html.
APA
Wolfram Language. (2017). GatedRecurrentLayer. Wolfram Language & System Documentation Center. Retrieved from https://reference.wolfram.com/language/ref/GatedRecurrentLayer.html