当前位置:   article > 正文

机器学习和深度学习--李宏毅(笔记与个人理解)Day15

机器学习和深度学习--李宏毅(笔记与个人理解)Day15

Day 15 重温宝可梦分类器 – 浅谈机器学习基本原理

REview 见我之前的笔记即可~

image-20240412194542956

More parameters , easier to overfit ,why ?

image-20240412194713177

image-20240412194738402

image-20240412194802278

Step 1 a function (Based on domain knowedge)

image-20240412194901495

线条的复杂程度?

Edge Detction

image-20240412195034559 image-20240412195116336

image-20240412195140603

image-20240412195203771

Step 2 Loss

image-20240412195538907

image-20240412195553629

这里注意一下哈,这个corss-entropy 不能直接微分, 那就直接爆搜

step 3 Train find the best

image-20240412195932667 image-20240412200011442 image-20240412200151688 image-20240412200243781

image-20240412200352614

image-20240412200454552 image-20240412200658205

image-20240412200843895

What is the probability of sampling bad Dtrain ?

万能近似!

image-20240412201052471

image-20240412201146796 image-20240412202821350 image-20240412202832708

不等式变号即可

image-20240412202947845 image-20240412202959332 image-20240412203032943 image-20240412203128207 image-20240412203407542

这里应该用数理统计那块儿东西可以做

image-20240412203458588

image-20240412203626837

image-20240412203654684

霍夫丁不等式(Hoeffding’s Inequality)是概率论中的一个重要结果,它提供了一种评估独立随机变量之和与其期望值偏差的概率的方法。具体地,如果有一组独立的随机变量,每个随机变量的取值范围都是有限的,那么这些随机变量之和的实际观察值与其期望值的偏差超过某个界限的概率是非常小的。

霍夫丁不等式的数学表达式是这样的:

image-20240412203932969

这两个不等式给出了随机变量之和大于或小于其期望值一定范围的概率上限。

根据霍夫丁不等式,如果在足够大的训练集上,算法的误差已经非常小,那么我们有很强的信心认为,在未知的测试集上,算法的误差也会控制在一个很小的范围内

image-20240412204413258image-20240412204428973

tmd 不推了暂时,推的我脑袋疼,缓一缓哈 缓一缓

img

具体参考

image-20240412203852727 image-20240412204507804

Example

image-20240412204633102 image-20240412205347727 image-20240412205450023

这个问题真的提的很好啊! 如果是连续的怎么办呢? 连续的时候 用VC-dimention 来算模型的 复杂程度

image-20240412205732523 image-20240412205836544

怎么办?

见下一节鱼与熊掌兼得 – Deep Learning

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小小林熬夜学编程/article/detail/427783
推荐阅读
相关标签
  

闽ICP备14008679号