Unidad lineal rectificada (relu)
Definición: ¿Qué significa unidad lineal rectificada (ReLU)? La unidad lineal rectificada (ReLU) es una de las funciones de activación más comunes en los modelos de aprendizaje automático. Como componente de una neurona artificial en redes neuronales artificiales (ANN), la función de activación es responsable de procesar las entradas ponderadas y ayudar a generar una salida. … Leer más