激活函数及其梯度

发布时间 2023-05-25 18:49:20作者: 同淋雪

激活函数及其梯度

image-20230511153216403

1959年科学家对青蛙神经元的机制进行了研究,发现神经元不是对所有的输入都响应,而是只有值大于某个阈值时才会响应,且输出的值是固定的。

科学家借鉴这种机制发明了神经元模型。

image-20230511153839722 image-20230511153806670

这个函数在z=0处是不连续的,没法求它的导数,无法使用梯度下降进行优化。

为了解决这问题,科学家引入了新的激活函数。

Sigmoid函数(也称Logistic)

image-20230511154746351 image-20230511154830712

求梯度

image-20230511154910997

sigmoid函数存在缺陷,当导数趋近于0时,参数几乎不再更新,这种现象叫梯度弥散。

pytorch中使用

image-20230511155318516

Tanh函数

image-20230511155424655

image-20230511155509873

求梯度

image-20230511155535896

pytorch中使用

image-20230511155553124

Relu函数(rectified liner unit 整型的线性单元)

image-20230511155743132

image-20230511155754797

求梯度

image-20230511155814362

pytorch中使用

image-20230511155844127