机器学习算法-误差项定义

误差:学习器的实际预测输出与样本的真实输出之间的差异

学习器在训练集上的误差称为:训练/经验误差
学习器在新样本上的误差称为:泛化误差
注:显然我们希望得到泛化误差小的学习器。但是实际能做的努力是使经验误差最小化,很多情况下我们能得到一个在训练集上表现很好的学习器,遗憾的是这样的学习器在多数情况下都是不好的。

https://www.bilibili.com/video/BV1r94y1U7hh?p=3

首先我们来考虑一个问题
那你说什么样的平面才是刚才你解释的最
你和那个现象最拟合
最满足这东西该怎么样进行描述啊

我们可以啊
来这里做一些假设
假设什么呢
咱们来看
首先我说做了第一点
先把咱们的公式给它写完
然后呢咱们来看一下
一会儿啊咱们该怎么样做拟合
我先把公式列出来
我写了一个呃h tx表示什么
当前我做的这个平面当前最为平二等于什么
刚才咱们说了吉他1×1
吉他x2
这个是我们刚才解释的两点吧
你的工资对结果的影响
你的你的年龄对接有影响诶
这个大家都比较好理解
现在这里呢我就列出来一个c0
什么叫做c的灵绕
我们一般情况下是怎么样去就是这么样去称呼他们的
我说c一和scar它叫什么
它叫一个权重向
来写一下
它叫做一个权重向
然后哎呀不写了
写中文太难看了
直接大家就知道了
它是一个权重项
然后呢吉特零叫什么
吉特里
我管它叫做一个偏置项
那大家可以来看一看偏置项什么意思
无论你c一和c2 或者x一是x x2 是什么东西
我都不管
前提下吉特零改变的时候
我的平面会怎么样进行一个浮动
我的平面会怎么样进行浮动
它会进行一个向上或者向下的一个浮动吧
在这里看向上或者向下的一个浮动吧
所以说啊咱们的一个偏执向他做了一件什么事儿啊
偏置下就改变这样一点
把我的一个结果又做了一个微调吧
那可能咱当然虽然这个模型在结果上哎呀好像总是偏低了一点
那个谁的脸我增大一点
让它偏高一点
是不是能弥补一些
我c40 小一点
是不是说往下调一调
所以说啊大家就知道一点就行了
对于我的一个偏置项是当我训练完结果之后
不是训练完
在训练过程当中使得我的模型能够更精准一点
做的一个微调
这里希望大家强调记住一点就会提到什么
它是一个微调
不是一个大范围的移动
所以说啊对于当前咱这个线性回归方程当中
你的核心影响因素是什么
核心的影响是c一和c2
然后呢微调是斯特林
这个是我们现在所构建出来的拟合的平面
有这个你和平台之后啊
还需要给大家解释一个事儿
我们来想你说现在啊就是刚才我说咱们的数据x它是一个矩阵吧
你看这里它是一个矩阵
行呢代表量本列
咱代表特征吧
这里比如说1233个样本
然后呢这一块1233个特征吧
那首先它是个矩阵
之前我再给大家讲工具帮助时也提到一点
我们接下来所有对数据的操作都是对矩阵进行一系列变换
一系列操作吧
那现在我们来看有一点啊
我问大家一个事儿
你说这个sd加c1 x一加c的x2
它是矩阵的变换吗
他能弹到矩阵这个层面上吗
好像还没有
为什么
因为你看矩阵当中肯定是它一个参数和一个就是已知量
比如说c一和c1
c2 和x2 这种组合我才能写成一种就是矩阵的形式吧
但是在这里多了一项什么呀
多了一项斯特林吧
多了这个c的零之后
好像来说就是有一项挺多余的
由于c的零的存在
我没办法干什么
我没办法去把它转换成一种矩阵的表达吧
那这里啊我们该怎么办
这里我们就需要来想一想
怎么样把当前这个式子做一个转换吧
转换成咱们用矩阵来计算
接下来咱是不是写起来或者计算起来都方便多了
那我们来观察一下这里差了什么
希特e x1 c塔x2
吉特零差了个什么
是不是差了一个x0 啊
在这里如果说我找出来一下x0 跟c特零组合在一起
那这不又是一个矩阵的形式吗
那此时大家来讲这个x0 应该是什么
x一它是一个工资
x2 它是个年龄
他俩都实际有这样一个特别的含义吧
就实际有它真实的一个物理含义
但是x0 呢好像是我新构造出来的
我构造出来这个东西只是为了我做一个转换而已
所以说啊大家需要记住一点
在这里我们在呃可以给大家列一下
这是x1
这是x2
就是x0
我需要咱们在做数据的时候
自己动手

在数据当中新添加一列
这一个列应该叫做名字x0 就可以了
然后里边都是什么纸啊
什么数乘上一个数等于这个数本身啊
应该是一吧
所以说啊大家以后啊再看一些数据预处理的过程当中
经常会看到一些现象
在数据当中哎就是添加了一列
这一列全为一
那目的是干什么呢
其实就是一个补位的一个含义吧
就是啊让我们这个数据能转换成一种矩阵的形式
好计算而已
而不是说啊在这个数据当中我添加一列一啊
是为了一些其他的表示的
不是这个意思

只是为了我们计算做这样一件事的
然后呢此时当我去添加完了一列x0 之后
当前那是不是就转换成一种矩阵的形式了
这个就是我们现在啊希望大家知道一点
我的h c tx我最终的决策方程
或者说呢你叫做回归方程
叫做这个面儿吧
在这里咱们叫这个面
它是怎样组成的
其中x是已知的c所未知的
也是我要求解的啊
这个就是咱们现在要做的一件事
那我们来看吧
既然你要做这件事儿
刚才你说这个图咱拿出来其中一个样本来观察观察
比如说这个1号样本
1号样本呢它可能这样

你看这个决策方程在哪
对1号样本来说
我们找到对于1号样本
我可以得到它的一个x1
也可以得到它的一个x2
这些值我是不是已知条件
我的x一和x2 我都知道了
那所以说呢现在我的方程有了x1 x2 也有了
那我能算什么
我能得到的一个东西叫做预测值吧
预测值是什么意思啊
平面方程估计的一个结果
在这里我换个颜色呃
换一个换个蓝色吧
在这一块儿有个蓝色的点是吧
对于当前哦
对当前这个红色点往下一拉
就是往下做做
做一条垂线
它跟咱的一个角色方程之间有一个交点吧
这个焦点叫什么
这个焦点叫做我的一个预测值
因为此时这个无论上面的红点
还有这个蓝点
它的x一和x2 都是相同的一个位置吧
只是y不同而已
那此时我们来看一下
我说这个y啊
它叫做什么
它叫做一个真实值是吧
为大家写一下这个东西叫做一个我写个处吧
叫做一个真实纸
比如说现在呢银行他手里有一批历史数据
在历史数据当中是不是有哎呀
银行在历史数据当中介根据这个人已知条件借了他3万块钱
还是借了5万块钱啊
这个叫做我的一个真实值
后面呢后面这一项结果我先框起来
这项这个叫做我的一个预测值吧
得到的一个结果
这个叫做我的一个预测值吧
那我们来看这个叫什么
这叫做一个product吧
写个p
此时呢真实值和预测值之间有着一个什么差异吧
你看这里我可以把这个差异列出来
这个就是我的一个差异项
我们把这个插一下叫什么呢
叫做一个误差项
写了一个error啊
这个这个你可以叫做一个叫做一个eco
然后或者叫error都行
我们写上了一个error是吧
它是一个误差项
那我们来观察一下
在这里对于每一个样本它的误差是一样的吗
首先这里1号样本
2号样本
3号样本不同样本的误差是不同的吧
所以说我上面写了一个角标i代表着对于每一个样本
它的真实值和它的预测值之间都是有这样一个误差项的吧
所以说啊希望大家现在知道一点
我的真实值和误差值之间存在着一个误差
那你说我们现在要建立一个模型
我们来给大家解释一下什么叫做机器学习
机器学习是这样一个事儿
首先呢你要告诉机器什么是你要的一个数据
在数据有了吧
已经传去了
然后呢不光有个data
还有最核心的东西是什么
怎么样学
怎么样学这个东西
我可以管它叫做一个loss function
或者是叫做一个目标函数或者叫损失函数都行
咱们就把它叫做目标函数吧
你给了机器一堆数据
你告诉他的一个目标机器呢就会朝着这个目标去学习一下
什么样的一个参数能够最符合于你这样一个目标吧
这个是结学当中它的一个通俗解释
那我们先来看我们的目标应该是什么
对于这个误差项来说
你希望它大点好
还是希望小点好啊
误差项我们刚才说了
它也是误差项
它是真实值和预测值区间的一个差异
我希望差异等于多少才是最好的
一旦真实值和预测值是相等
代表你这件事已经做得完美了吧
此时怎么样损失等于多少
损失等于零吧
所以说在这里啊
我们现在有第一个前提
我希望我的误差项越小越好
并且接近于零才是一个完美的
通常损失函数都是这么定义的
损失函数等于零的时候
代表做到了一个极限
损失函数越接近于零
代表着你这个事做得越好
这个就是机器当中无论什么样的损失函数
基本上来说都是这样一个出发点的
那行了
我们现在给大家解释了
有这样一个损失函数
那既有有这样一个就是误差项
我们需要误差项能够越小越好

发表评论

邮箱地址不会被公开。 必填项已用*标注