过拟合(Overfitting)是指机器学习模型在训练数据上表现得过于优秀,以至于在未见过的新数据上表现不佳的现象。过拟合发生时,模型会过度适应训练数据中的噪声和细节,而忽略了真正的数据模式和一般性质,从而导致泛化性能下降。
针对上方的线性回归、逻辑回归等,将它们应用到某些特定的机器学习应用时,会遇到过拟合(over-fitting)的问题,可能会导致它们效果很差。
过拟合的特征包括:
为了应对过拟合,可以采取以下一些方法:
回归问题
第一个模型是一个线性模型,欠拟合
第三个模型是一个四次方的模型,过于强调拟合原始数据,而丢失了算法的本质:预测新数据。
分类问题
就以多项式理解, 的次数越高,拟合的越好,但相应的预测的能力就可能变差。
从之前的事例中看出,正是那些高次项导致了过拟合的产生,所以如果我们能让这些高次项的系数接近于0的话,我们就能很好的拟合了。 所以要做的就是在一定程度上减小这些参数θ 的值,对某些参数进行惩罚,这就是正则化的基本方法。
在逻辑回归等机器学习算法中,常用的正则化代价函数有L1正则化和L2正则化。教程中介绍的是L2正则化;代价函数同样由原始的损失函数和正则化项组成,但正则化项使用参数向量中的平方和作为正则化项,以降低参数的大小。正则化参数 λ 的选择影响了正则化项对模型的影响程度。较大的 λ 会使模型更加倾向于选择较小的参数值,从而降低过拟合的可能性。
所以修改之后的代价函数为
其中λ又称为正则化参数(Regularization Parameter
对于线性回归的求解,之前推导了两种学习算法:一种基于梯度下降,一种基于正规方程。
正则化梯度下降
正则化正规方程
之前的课程已经学习过两种优化算法:
The post 吴恩达机器学习一站式学习系列(6)——正则化(Regularization) first appeared on PMSOLO.