赞
踩
读复旦大学赵卫东博士的机器学习一书有感。经常听很多人开口闭口就是什么机器学习、人工智能啥的,这次系统看了一些资料后,算有点小感悟吧~
机器学习大致分为三类,监督学习、非监督学习、强化学习。这三者的解释及用途如下:
机器学习最重要实现的目标或者其任务可以分为三类:回归、分类、聚类。各个类别常用的算法如下:
首先,回归分析是一种研究自变量和因变量之间关系的预测模型,用于分析当自变量发生变化时,因变量的变化值,而且要求自变量相互独立
线性回归的特点如下: 自变量和因变量之间呈线性关系(我们学的连续型函数),在应用线性回归的时候,要求自变量是连续型的
逻辑回归的特点是它的输出是概率估算值(离散,不连续,结果有限个),此值通过Sigmoid函数映射到[0,1]区间,用于解释一个因变量和一个或多个自变量的关系(广义中的线性回归的自变量也可以有多个)
机器学习中常常听到一个名词,特别在神经网络中,但它到底是啥呢?它的定义是衡量模型模型预测的好坏,但怎么个衡量法?但我们训练一个模型时,模型的输出来的值(预测值)和测试集中(实际值)多多少少会有写差别的,而损失函数就是用来表现预测与实际数据的差距程度。这样,通过损失函数表示误差大小,我们可以不断调整,使得误差(损失函数)的值最小。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。