tanh

学习笔记415—激活函数(tanh、ReLU、softmax)

激活函数在神经网络中的作用有很多,主要作用是给神经网络提供非线性建模能力。如果没有激活函数,那么再多层的神经网络也只能处理线性可分问题。常用的激活函数有 sigmoid、 tanh、 relu、 softmax等。 1.1、sigmoid函数 sigmoid函数将输入变换为(0,1)上的输出。它将范 ......
函数 激活 softmax 笔记 tanh
共1篇  :1/1页 首页上一页1下一页尾页