Unidade linear exponencial.
 A unidade linear exponencial (ELU) com alpha > 0 é:
 x se x > 0 e alpha * (exp(x) - 1) se x < 0 .
 O hiperparâmetro ELU alpha controla o valor para o qual uma ELU satura para entradas líquidas negativas. ELUs diminuem o efeito do gradiente de desaparecimento.
As ELUs possuem valores negativos, o que aproxima a média das ativações de zero. As ativações médias mais próximas de zero permitem um aprendizado mais rápido, pois aproximam o gradiente do gradiente natural. ELUs saturam para um valor negativo quando o argumento fica menor. Saturação significa uma pequena derivada que diminui a variação e a informação que é propagada para a próxima camada.
Exemplo de uso:
     Operand<TFloat32> input = ...;
     ELU<TFloat32> elu = new ELU<>(tf, 2.0f);
     Operand<TFloat32> result = elu.call(input);
 Construtores Públicos
 ELU (operações tf)  Cria uma nova ELU com alpha=  ERROR(/#ALPHA_DEFAULT) .  | |
 ELU (Ops tf, alfa duplo)  Cria uma nova ELU   | 
Métodos Públicos
| Operando <T> | 
Métodos herdados
Construtores Públicos
ELU pública (Ops tf)
 Cria uma nova ELU com alpha= ERROR(/#ALPHA_DEFAULT) . 
Parâmetros
| TF | as operações do TensorFlow | 
|---|
ELU público (Ops tf, alfa duplo)
Cria uma nova ELU
Parâmetros
| TF | as operações do TensorFlow | 
|---|---|
| alfa | Um escalar, inclinação de seção negativa. Ele controla o valor para o qual uma ELU satura para entradas líquidas negativas. | 
Métodos Públicos
chamada de operando público <T> (entrada de operando <T>)
Obtém a operação de cálculo para a ativação.
Parâmetros
| entrada | o tensor de entrada | 
|---|
Devoluções
- O operando para a ativação