神经网络中,为什么使用正则化减少泛化误差?

发布时间 2023-09-14 19:52:59作者: 柚子lyg

第一、为什么使用正则化?

  简答的说,正则化就是将n向量转换为一个标量的过程。

第二、正则化的背后是拉格朗日求极值。

  函数f(x,y)在约束条件下的极值,转换在神经网络中求极值,即求损失函数的最小值。那么,为了防止权重值过大,引起的泛化误差过大的缘故,所以引入了范数。

  在这里,将范数比作是一个极大的雨伞或者手帕,在损失的函数的等高图中,范数规定了w和b的取值只能在雨伞或手帕上;同时,还要求 w和b两个参数 使得函数求得极值。

  再者,在当前约束条件下,求得的梯度和目标函数的梯度方向一直,即指向最小值。