正则化项L1和L2

机器学习中几乎都可以看到损失函数后面会添加一个额外项,常用的额外项一般有两种: L1正则化 和 L2正则化,或者 L1范数 和 L2范数。

L1正则化和L2正则化可以看做是损失函数的惩罚项。所谓『惩罚』是指对损失函数中的某些参数做一些限制。对于线性回归模型,使用L1正则化的模型建叫做Lasso回归,使用L2正则化的模型叫做Ridge回归(岭回归)。

L1正则化是指权值向量中各个元素的绝对值之和,通常表示为
L2正则化是指权值向量中各个元素的平方和然后再求平方根(可以看到Ridge回归的L2正则化项有平方符号),通常表示为

作用:

  • L1正则化可以产生稀疏权值矩阵,即产生一个稀疏模型,可以用于特征选择
  • L2正则化可以防止模型过拟合(overfitting);一定程度上,L1也可以防止过拟合
机器学习中正则化项L1和L2的直观理解


标签: 正则、l1、l2、化项、回归、面试
  • 回复
隐藏