机器学习笔记(二)线性模型

Posted by Felix Zhang on 2020-06-01
Words 2k and Reading Time 8 Minutes
Viewed Times

第二章 模型评估与选择

2.4 比较检验

统计假设检验(hypothesis test):基于假设检验的结果我们可以推断出,若在测试集上观察到学习器A比B好,则A的泛化性能是否在统计意义上优于B,以及上述结论成立的把握有多大。

2.4.1 假设检验

在包含m个样本的测试集上,泛化错误率$\epsilon$的学习器被测得测试错误率$\hat{\epsilon}$的概率:

做极大似然估计,$\part P(\hat{\epsilon};\epsilon)/\part \hat{\epsilon}=0$时,$\hat{\epsilon}=\epsilon$,即可以用测试错误率进行泛化错误率的估计;

考虑假设$\epsilon< \epsilon_0$在置信度(confidence)$1-\alpha$时的临界值的估计:

故若测试错误率$\hat{\epsilon}<\epsilon$,则根据二项检验可以得出结论:在$\alpha$的显著度下,假设$\epsilon < \epsilon_0$不能被拒绝;否则该假设可以被拒绝;

但事实上我们会进行多次留出法,得到多个测试错误率,则可以使用t检验

上述$k$个错误率可以看作是泛化错误率的独立采样,则变量

服从自由度为$k-1$的$t$分布;$t_{-\alpha}$表示从最左往右面积为$\alpha$时$t$的取值;

若平均错误率$\mu$和$\epsilon0$之差$|\mu-\epsilon_0|$位于临界值范围$[t{-\alpha/2},t_{\alpha/2}]$内,则不能拒绝假设$\mu = \epsilon_0$

2.4.2 交叉验证t检验

基本思想:若两个学习器的性能相同,则它们使用相同的训练/测试集得到的测试错误率应该相同;

(1)根据二者测试错误率的差值对假设“学习器A和B性能相同”作$t$检验,计算出$\mu$和$\sigma^2$,在显著度$\alpha$下,若变量:

小于临界值$t_{\alpha/2,k-1}$,则假设无法被拒绝,认为两个学习器性能没有差别;否则认为二者学习性能有差别;

测试错误率时泛化错误率的独立采样!!!

(2)受限于数据集大小,测试错误率采样并非完全独立,可使用$5\times 2$交叉验证法解决上述问题:

做5次2折交叉验证,在每次2折交叉验证前随机打乱数据,从而使得数据的划分不重复;

仅计算第一次2折交叉验证的平均值:

但需要使用所有2折实验的结果计算得到方差

从而构造变量

上述变量服从自由度为5的t分布,其双边检验临界值为$t_{\alpha/2,5}$。

2.4.3 McNemar检验

对两分类器问题,考虑给出的样本结果数,给出列联表;

假设两个学习器性能相同,则应该有$e{01}=e{10}$,则变量$|e{01}-e{10}|$应该服从正态分布,考虑检验变量

服从自由度为1的$\chi^2$分布。给定显著度$\alpha$,当以上变量小于临界值$\chi_\alpha^2$时,不能拒绝假设;否则拒绝假设;

2.4.4 Friedman检验与Nemenyi检验

(1)基于算法排序的Friedman检验:对不同算法在不同数据集上的性能进行排序,若性能相同则取平分序值。之后对每个算法取平均序值,若算法性能相同,则平均序值也应该相同;

假定在$N$个数据集上比较$k$个算法,令$r_i$表示第$i$个算法的平均序值,不考虑平分序值的情况,则有变量

服从自由度为$k-1$的$\chi^2$分布;

上述检验方法比较保守,现在通常使用新的变量:

上述变量服从自由度为$k-1和(k-1)(N-1)$的F分布;

(2)若假设被拒绝,则说明算法性能显著不同,则需要使用“后序检验”来加以区分

Nemenyi检验计算出平均序值的临界值域,其中$q_\alpha$由查表给出:

若两个算法的平均序值之差超出了上述$CD$,则以相应的置信度拒绝“两个算法性能相同”的假设;

2.5 偏差与方差

(1)偏差-方差分解(bias-variance decomposition)是解释学习算法泛化性能的工具之一;

对测试样本$x$,$y_D$为在数据集中的标记,$y$为真实标记,$f(x;D)$为学习模型的预测输出,则学习算法的期望预测:

说明学习算法的泛化误差可以分解为偏差、方差和噪声之和

偏差:期望预测与真实结果的偏差,体现学习算法本身的拟合能力;

方差:刻画了数据扰动造成的影响;

噪声:刻画了学习问题本身的难度;

(2)偏差-方差窘境(bias-variance dilemma)

训练数据不足,拟合能力不够强,偏差主导;训练数据充足,拟合能力增加,方差主导;之后在加强可能会导致过拟合;

第三章:线性模型

3.1 基本形式

非线性模型可在线性模型的基础上通过引入层级结构或高维映射而得;

3.2 线性回归

(1)最小二乘法

求解$\omega$和$b$使得$E{(\omega,b)}=\sum{i=1}^m(y_i - \omega x_i- b)^2$最小化的过程

通过对$\omega$和$b$分别求导并等于0的方程求解可以得到

(2)多元线性回归

当数据矩阵$\textbf{X}$满足$\textbf{X}^T\textbf{X}$为满秩矩阵或者正定矩阵时,可以学习得到

当上述矩阵并非满秩或者正定时,回得到多个满足条件的$\hat \omega$,考虑引入正则化项可以方便选择哪个进行输出;

(3)对数线性回归

考虑单调可微函数$g(·)$,令:

3.3 对数几率回归

利用线性模型完成二分类任务

做线性回归时,需要对$y$的形式进行调整

其中回归得到的$y$表示样本作为正例的可能性,则$1-y$表示作为反例的可能性,则有

对率回归模型最大化“对数似然”,即令每个样本属于真实标记的概率越大越好;

则原问题等价于最小化下面的式子,其中$\beta=(\omega;b),\hat x=(x;1)$:

数值优化算法迭代求解:


This is copyright.