Ativação da Unidade Linear Retificada (ReLU).
 Com valores padrão, isso retorna a ativação ReLU padrão: max(x, 0) , o máximo elemento a elemento de 0 e o tensor de entrada.
A modificação dos parâmetros padrão permite usar limites diferentes de zero, alterar o valor máximo da ativação e usar um múltiplo diferente de zero da entrada para valores abaixo do limite.
Por exemplo:
     Operand<TFloat32> input = tf.constant(
              new float[] {-10f, -5f, 0.0f, 5f, 10f});
     // With default parameters
     ReLU<TFloat32> relu = new ReLU<>(tf);
     Operand<TFloat32> result = relu.call(input);
     // result is [0.f,  0.f,  0.f,  5.f, 10.f]
     // With alpha = 0.5
     relu = new ReLU<>(tf, 0.5f, ReLU.MAX_VALUE_DEFAULT, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [-5.f , -2.5f,  0.f ,  5.f , 10.f]
     // With maxValue = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, 5f, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [0.f, 0.f, 0.f, 5.f, 5.f]
     // With threshold = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, ReLU.MAX_VALUE_DEFAULT, 5f);
     result = relu.call(input);
     // result is [-0.f, -0.f,  0.f,  0.f, 10.f]
 Constantes
| flutuador | ALPHA_DEFAULT | |
| flutuador | MAX_VALUE_DEFAULT | |
| flutuador | THRESHOLD_DEFAULT | 
Construtores Públicos
 ReLU (operações tf)  Cria um novo ReLU com alfa=  ALPHA_DEFAULT , maxValue= MAX_VALUE_DEFAULT , limite= THRESHOLD_DEFAULT ,  | |
 ReLU (Ops tf, float alfa, float maxValue, limite flutuante)  Cria um novo ReLU   | 
Métodos Públicos
| Operando <T> | 
Métodos herdados
Constantes
flutuador final estático público ALPHA_DEFAULT
flutuador final estático público MAX_VALUE_DEFAULT
flutuador final estático público THRESHOLD_DEFAULT
Construtores Públicos
ReLU pública (Ops tf)
 Cria um novo ReLU com alfa= ALPHA_DEFAULT , maxValue= MAX_VALUE_DEFAULT , limite= THRESHOLD_DEFAULT , 
Parâmetros
| TF | as operações do TensorFlow | 
|---|
ReLU público (Ops tf, float alfa, float maxValue, limite flutuante)
Cria um novo ReLU
Parâmetros
| TF | as operações do TensorFlow | 
|---|---|
| alfa | rege a inclinação para valores inferiores ao limite. | 
| valor máximo | define o limite de saturação (o maior valor que a função retornará). | 
| limite | o valor limite da função de ativação abaixo do qual os valores serão amortecidos ou definidos como zero. | 
Métodos Públicos
chamada de operando público <T> (entrada de operando <T>)
Obtém a operação de cálculo para a ativação.
Parâmetros
| entrada | o tensor de entrada | 
|---|
Devoluções
- O operando para a ativação