Funções de ativação exercem um papel fundamental em redes neurais, habilitando os modelos a capturarem padrões complexos não lineares dos dados. Entretanto, especificamente em redes neurais profundas essas funções podem implicar em um problema conhecido chamado gradient vanishing (desvanecimento do gradiente). Afim de evitar esse problema, assinale a função de ativação que mitiga o gradiente vanishing.