パブリック最終クラス
adagrad スキームに従って「*var」を更新します。
accum += grad * grad var -= lr * grad * (1 / (sqrt(accum) + epsilon))
ネストされたクラス
| クラス | リソースApplyAdagrad.Options | ResourceApplyAdagradのオプションの属性 | |
定数
| 弦 | OP_NAME | TensorFlow コア エンジンによって認識される、この演算の名前 |
パブリックメソッド
| static <T extends TType > ResourceApplyAdagrad | |
| 静的ResourceApplyAdagrad.Options | updateSlots (ブール値の updateSlots) |
| 静的ResourceApplyAdagrad.Options | useLocking (ブール型 useLocking) |
継承されたメソッド
定数
パブリック静的最終文字列OP_NAME
TensorFlow コア エンジンによって認識される、この演算の名前
定数値: "ResourceApplyAdagradV2"
パブリックメソッド
public static ResourceApplyAdagrad create (スコープscope、オペランド<?> var、オペランド<?> accum、オペランド<T> lr、オペランド<T> epsilon、オペランド<T> grad、オプション... options)
新しい ResourceApplyAdagrad 操作をラップするクラスを作成するためのファクトリ メソッド。
パラメーター
| 範囲 | 現在のスコープ |
|---|---|
| 変数 | Variable() から取得する必要があります。 |
| 蓄積 | Variable() から取得する必要があります。 |
| lr | スケーリング係数。スカラーでなければなりません。 |
| イプシロン | 定数係数。スカラーでなければなりません。 |
| 卒業生 | グラデーション。 |
| オプション | オプションの属性値を持ちます |
戻り値
- ResourceApplyAdagrad の新しいインスタンス
public static ResourceApplyAdagrad.Options useLocking (ブール型 useLocking)
パラメーター
| 使用ロック | 「True」の場合、var テンソルと accum テンソルの更新はロックによって保護されます。それ以外の場合、動作は未定義ですが、競合が少なくなる可能性があります。 |
|---|