тензорный поток:: опс:: Селу
#include <nn_ops.h> Вычисляет масштабируемую экспоненциальную линейную зависимость: scale * alpha * (exp(features) - 1)
Краткое содержание
если < 0, в противном случае scale * features .
Используется вместе с `initializer = tf.variance_scaling_initializer(factor=1.0, mode='FAN_IN') . For correct dropout, use tf.contrib.nn.alpha_dropout`.
См. Самонормализующиеся нейронные сети.
Аргументы:
- область: объект области.
Возврат:
-
Output: Тензор активаций.
Конструкторы и деструкторы | |
|---|---|
Selu (const :: tensorflow::Scope & scope, :: tensorflow::Input features) |
Публичные атрибуты | |
|---|---|
activations | |
operation | |
Общественные функции | |
|---|---|
node () const | ::tensorflow::Node * |
operator::tensorflow::Input () const | |
operator::tensorflow::Output () const | |
Публичные атрибуты
активации
::tensorflow::Output activations
операция
Operation operation
Общественные функции
Селу
Selu( const ::tensorflow::Scope & scope, ::tensorflow::Input features )
узел
::tensorflow::Node * node() const
оператор::tensorflow::Input
operator::tensorflow::Input() const
оператор::tensorflow::Выход
operator::tensorflow::Output() const