赞
踩
本关任务:了解并掌握在python中如何利用利用sklearn构建线性回归模型
在上一关中,我们知道了线性回归的基本原理,本关我们将演示线性回归在如何python中实现的。
在python中,线性回归算法是通过LinearRegression()模块实现的。
- from sklearn.linear_model import LinearRegression
- lrn = LinearRegression(fit_intercept=True, normalize=False,copy_X=True, n_jobs=1)
- 参数:
- fit_intercept:是否有截据,如果没有则直线过原点,默认为Ture。
- normalize:是否将数据归一化,默认为False。
- copy_X:默认为True,当为True时,X会被copied,否则X将会被覆写;
- n_jobs:默认值为1。计算时使用的核,如果为-1,则代表调用所有cpu
LinearRegression类做了什么功能呢?它帮我们省去了梯度下降、计算损失等等过程。它有一个fit方法,我们把数据集放入此中,它会根据我们提供的数据集为这些数据集规划出一条满足最小二乘法的最优直线。
- lr = lrn.fit(x,y)
- LinearRegression类中的fit函数用于训练模型,fit函数有两个向量输入:
- X:大小为**[样本数量,特征数量]**的ndarray,用于存放训练样本。
- Y:值为整型,大小为**[样本数量]**的ndarray,用于存放训练样本的标签值。
当我们的模型建立完成后,我们就可以通过调用模型的内部属性打印出我们需要求的直线方程的w值和b值,并且如果结果得到的是负数,它们也会显示负数。
- lr.coef_[0] # w值(斜率)
- # lr.coef_是存储所有w值的,是一个数组结构,如果有多个特征变量的话就会有多个值在里面,从前往后分别对应着第一个特征变量、第二个特征变量...
- lr.intercept_ # b值(截距)
- lr.predict([[1]])
- # predict函数用于预测,返回预测值。predict函数有一个向量输入:X:大小为**[样本数量,特征数量]**的ndarray,用于存放预测样本
线性回归没有可供用户调节的参数(像KNN算法可以调节参数K值来改变模型的评估,线性回归没有),虽然这是它的优势,但也让我们无法控制模型的复杂性,因此我们在建立模型后往往会出现如:过拟合、欠拟合等情况。 完整代码如下:
- from sklearn.linear_model import LinearRegression
- x = [[4], [8], [12], [10], [16]] # 横坐标
- y = [3, 5, 7, 10, 15] # 纵坐标
- lr = LinearRegression().fit(x,y) # 关键点
- k = lr.coef_[0]
- b = lr.intercept_
- print(k, b)
- print(lr.predict([[10]]))
结果:
0.9499999999999997 -1.4999999999999964
[8.]
根据提示,在右侧编辑器补充代码,完成相应要求。
平台会对你编写的代码进行测试:当你的结果与预期输出一致时,即为通过。
- from sklearn.linear_model import LinearRegression
- x = [[1], [4], [6], [10], [12]]
- y = [3, 5, 7, 10, 6]
- # 1.建立模型并拟合
- # 2.赋值给变量lr
- ######### Begin #########
- lr = LinearRegression().fit(x,y) # 关键点
- ######### end ##########
- # 1.得到回归模型的k值并赋值给变量k
- # 2.得到回归模型的b值并赋值给变量b
- ######### Begin #########
- k = lr.coef_[0]
- b = lr.intercept_
- ######### end ##########
- print("回归直线方程为:" + "y = {:.3f}".format(k) + "x" + " + " + "{:.3f}".format(b))
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。