#include <activation.h>
|
auto | forward (const algebra::Tensor< T, 2 > &z) -> algebra::Tensor< T, 2 > override |
| Propagación hacia adelante aplicando la función ReLU a cada elemento.
|
auto | backward (const algebra::Tensor< T, 2 > &g) -> algebra::Tensor< T, 2 > override |
| Propagación hacia atrás del gradiente de ReLU. Devuelve 1 si el valor de entrada fue positivo, 0 si fue negativo.
|
auto | id () const -> LayerId override |
| Identificador único de la capa ReLU.
|
virtual | ~ILayer ()=default |
| Destructor virtual.
|
virtual void | update_params (IOptimizer< T > &optimizer) |
| Actualiza los parámetros internos de la capa (si tiene).
|
virtual void | save (std::ostream &out) const |
| Guarda los parámetros internos de la capa en un flujo binario.
|
◆ backward()
Propagación hacia atrás del gradiente de ReLU. Devuelve 1 si el valor de entrada fue positivo, 0 si fue negativo.
- Parameters
-
g | Gradiente de la siguiente capa. |
- Returns
- Gradiente respecto a la entrada de esta capa. @complexity O(n*m*r), donde: n*m es el tamaño del tensor, r es el número de dimensiones del resultado (por broadcasting). En la práctica, si no hay broadcasting, se reduce a O(n*m).
Implements utec::neural_network::ILayer< T >.
◆ forward()
Propagación hacia adelante aplicando la función ReLU a cada elemento.
- Parameters
-
- Returns
- Tensor con valores negativos reemplazados por 0. @complexity O(n*m), donde n y m son las dimensiones del tensor.
Implements utec::neural_network::ILayer< T >.
◆ id()
template<typename T>
|
inlinenodiscardoverridevirtual |
The documentation for this class was generated from the following file: