0%

西瓜书

第二章 模型评估与选择

评价标准:

  • 回归模型评估:均方误差 MSE
  • 分类模型评估:错误率 E 和精度 acc(两者互补)

代价函数与代价敏感:

损失函数(Loss Function )是定义在单个样本上的,算的是一个样本的误差。
代价函数(Cost Function )是定义在整个训练集上的,是所有样本误差的平均,也就是损失函数的平均。

上述的acc就是一个代价均等的函数,每一类分类错误的后果是一样的。

为了确保泛化误差的稳定性,从而得到理想的模型,我们就需要利用K折验证法,其一般流程如下:

(1) 将数据集分为训练集和测试集,测试集放在一边。

(2) 将训练集分为 k 份,每次使用 k 份中的1 份作为验证集,其他全部作为训练集。

(3) 通过 k 次训练后,得到了 k 个不同的模型。

(4) 评估 k 个模型的效果,从中挑选效果最好的超参数。

(5) 使用最优的超参数,然后将 k 份数据全部作为训练集重新训练模型,得到最终所需模型,最后再到测试集上测试。

参数与调参:

  • 模型参数:参数属于模型内部的配置变量,它们通常在建模过程自动学习得出。如:线性回归或逻辑回归中的系数、支持向量机中的支持向量、神经网络中的权重。

  • 模型超参数:超参数属于模型外部的配置变量,他们通常由研究员根据自身建模经验手动设定。如学习速率,迭代次数,层数、K近邻中的K值。

第三章 线性模型

在线性回归中,当以均方误差为代价函数时,对其求解的方法称为最小二乘法。均方误差对应于欧氏距离,最小二乘法就是试图找到一条直线,使所有样本到直线上的距离之和最小。

这里的代价函数关于求解参数是凸函数,因此当偏导数为0时就是使代价函数最小的最优解。推导过程需要学习一下矩阵的求导法则。

第五章 神经网络

BP算法:

BP算法是包含两个部分,第一个部分是forward pass,算出Z,Z需要代入到激活函数的导数中求出具体值供backward pass计算;第二个部分是backward pass,用于求偏导数。

Lhy_Machine_Learning/2022 ML/选修 To Learn More/第一节 at main · CQ-yangxh/Lhy_Machine_Learning (github.com)