当前位置:   article > 正文

机器学习入坑篇_机器学习为什么入坑

机器学习为什么入坑

读复旦大学赵卫东博士的机器学习一书有感。经常听很多人开口闭口就是什么机器学习、人工智能啥的,这次系统看了一些资料后,算有点小感悟吧~

三者关系

在这里插入图片描述

机器学习的分类

机器学习大致分为三类,监督学习、非监督学习、强化学习。这三者的解释及用途如下:

  • 监督学习:从有标记的训练数据中学习一个模型,然后根据这个模型对未知数据进行预测(如识别数字图像,不是输入图像的全部像素点,而是输入经过处理的能重点体现图像特征的数据并且你在训练时,提供了训练集和测试集,从而实现分类)。监督学习常用于分类和数字预测
  • 非监督学习:输入样本不需要进行标记,而是自动从样本中学习特征和实现预测。(并不关系你的数据是哪个类别,而是通过自主分析数据的内在特征结构而把相似的数据聚集在一起形成簇群。)。非监督学习常用于聚类和关联分析。
  • 强化学习:通过观察来学习做成什么样的动作(输入数据也是没有标签的),每个动作都会对环境有所影响,学习对象根据观察到的周围环境的反馈信息做出判断。(譬如一个推荐系统中,非监督学习可能这样做,选取一篇和某个用户阅读过比较相似的文章推荐给该用户,而强化学习是这样做的,随机推荐一篇,然后根据用户的反馈的信息不断改进,通常还引入激励措施(激励函数),当学习对象做出比较正确的行为时,给它一定的激励,直到达到我们的预期)

机器学习的任务

机器学习最重要实现的目标或者其任务可以分为三类:回归、分类、聚类。各个类别常用的算法如下:

在这里插入图片描述


逻辑回归和线性回归的区别

首先,回归分析是一种研究自变量和因变量之间关系的预测模型,用于分析当自变量发生变化时,因变量的变化值,而且要求自变量相互独立

线性回归的特点如下: 自变量和因变量之间呈线性关系(我们学的连续型函数),在应用线性回归的时候,要求自变量是连续型的

逻辑回归的特点是它的输出是概率估算值(离散,不连续,结果有限个),此值通过Sigmoid函数映射到[0,1]区间,用于解释一个因变量和一个或多个自变量的关系(广义中的线性回归的自变量也可以有多个)
来自百度百科
来自百度图片


什么是损失函数

机器学习中常常听到一个名词,特别在神经网络中,但它到底是啥呢?它的定义是衡量模型模型预测的好坏,但怎么个衡量法?但我们训练一个模型时,模型的输出来的值(预测值)和测试集中(实际值)多多少少会有写差别的,而损失函数就是用来表现预测与实际数据的差距程度。这样,通过损失函数表示误差大小,我们可以不断调整,使得误差(损失函数)的值最小。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/500337
推荐阅读
相关标签
  

闽ICP备14008679号