публичный финальный класс ResourceSparseApplyAdagradV2
Обновите соответствующие записи в «*var» и «*accum» в соответствии со схемой adagrad.
То есть для строк, для которых у нас есть grad, мы обновляем var и accum следующим образом: accum += grad * grad var -= lr * grad * (1 / sqrt(accum))
Вложенные классы
| сорт | ResourceSparseApplyAdagradV2.Options | Дополнительные атрибуты для ResourceSparseApplyAdagradV2. | |
Константы
| Нить | OP_NAME | Название этой операции, известное основному движку TensorFlow. | 
Публичные методы
| static <T расширяет TType > ResourceSparseApplyAdagradV2 | |
| статический ResourceSparseApplyAdagradV2.Options |  updateSlots (логическое значение updateSlots) | 
| статический ResourceSparseApplyAdagradV2.Options |  useLocking (логическое значение useLocking)  | 
Унаследованные методы
Константы
общедоступная статическая финальная строка OP_NAME
Название этой операции, известное основному движку TensorFlow.
 Постоянное значение: «ResourceSparseApplyAdagradV2». 
Публичные методы
public static ResourceSparseApplyAdagradV2 create ( Область действия, Операнд <?> var, Операнд <?> accum, Операнд <T> lr, Операнд <T> эпсилон, Операнд <T> град, Операнд <? расширяет TNumber > индексы, Параметры... параметры)
Фабричный метод для создания класса, обертывающего новую операцию ResourceSparseApplyAdagradV2.
Параметры
| объем | текущий объем | 
|---|---|
| вар | Должно быть из переменной(). | 
| накапливать | Должно быть из переменной(). | 
| лр | Скорость обучения. Должно быть скаляр. | 
| эпсилон | Постоянный фактор. Должно быть скаляр. | 
| выпускник | Градиент. | 
| индексы | Вектор индексов в первом измерении var и accum. | 
| параметры | содержит значения необязательных атрибутов | 
Возврат
- новый экземпляр ResourceSparseApplyAdagradV2
общедоступный статический ResourceSparseApplyAdagradV2.Options updateSlots (логическое значение updateSlots)
общедоступный статический ResourceSparseApplyAdagradV2.Options useLocking (логическое значение useLocking)
Параметры
| использоватьLocking | Если `True`, обновление тензоров var и accum будет защищено блокировкой; в противном случае поведение не определено, но может вызывать меньше конфликтов. | 
|---|