当前位置:   article > 正文

吴恩达机器学习课后作业Python实现(二):逻辑回归_positive = data["admitted"].isin([1]) negative = d

positive = data["admitted"].isin([1]) negative = data["admitted"].isin([0])

目录

        逻辑回归     

        数据可视化

         数据处理

        实现

        Sigmoid函数

        代价函数与梯度

        调用工具库计算θ

        画出决策曲线

         评价逻辑回归模型

        正则化的逻辑回归

        数据可视化

        特征工程

        代价函数与梯度

        画图

         完整代码


逻辑回归     

        在这一部分的练习中,你将建立一个逻辑回归模型来预测一个学生是否会被大学录取。假设您是一个大学部门的管理员,您想根据申请人在两次考试中的成绩来确定他们的入学机会。您可以使用以前申请人的历史数据作为逻辑回归的训练集。对于每个培训示例,您都有申请人在两门考试中的成绩和录取决定。

数据可视化

        在开始执行任何学习算法之前,如果可能的话,最好将数据可视化。首先我们需要先导入所用到的库

  1. import numpy as np
  2. import pandas as pd
  3. import matplotlib.pyplot as plt
  4. import scipy.optimize as opt

        接着导入本次实验中所用到的数据

  1. # 导入数据
  2. path = r'E:\Code\ML\ml_learning\ex2-logistic regression\ex2data1.txt'
  3. data = pd.read_csv(path, header=None, names=['Exam1 Sorce', 'Exam2 Sorce', 'Admitted'])

        数据如下

Exam1 SorceExam2 SorceAdmitted
034.62366078.0246930
130.28671143.8949980
235.84740972.9021980
360.18259986.3085521
479.03273675.3443761
............
9583.48916348.3802861
9642.26170187.1038511
9799.31500968.7754091
9855.34001864.9319381
9974.77589389.5298131

        接着我们需要根据Admitted对数据进行分类,将不同的数据使用不同符号进行绘画

        positive代表通过考试,negative代表不通过考试

  1. positive = data[data['Admitted'].isin([1])]
  2. negative = data[data['Admitted'].isin([0])]

        接下来进行数据可视化

  1. fig, ax = plt.subplots(figsize=(12, 8))
  2. # 录取的使用蓝圆表示
  3. # 不录取的使用红叉表示
  4. ax.scatter(x=positive['Exam1 Sorce'], y=positive['Exam2 Sorce'], color='b', marker='o', label='Admitted')
  5. ax.scatter(x=negative['Exam1 Sorce'], y=negative['Exam2 Sorce'], color='r', marker='x', label='Not Admitted')
  6. ax.legend() # 显示图例,默认右上角
  7. # 设置坐标轴标题
  8. ax.set_xlabel('Exam1 Sorce')
  9. ax.set_ylabel('Exam2 Sorce')
  10. plt.show()

 数据处理

  1. # 数据处理部分
  2. # 添加x0 = 1
  3. if 'Ones' not in data.columns:
  4. data.insert(0, 'Ones', 1)
  5. # 输入输出
  6. cols = data.shape[1]
  7. X = np.matrix(data.iloc[:, 0:cols - 1])
  8. y = np.matrix(data.iloc[:, cols - 1:cols])
  9. theta = np.zeros(X.shape[1])

实现

Sigmoid函数

        逻辑回归函数的定义为:

h_{\theta}(x)=g(\theta^{T}x)

        其中g代表一个常用的逻辑函数为S形函数(Sigmoid function),公式为:

g(z)=\frac{1}{1+e^{-z}}

        故我们的逻辑回归函数为:

h_{\theta}(x)=\frac{1}{1+e^{-\theta^{T}x}}

  1. # sigmoid函数
  2. def sigmoid(z):
  3. return 1 / (1 + np.exp(-z))
'
运行

代价函数与梯度

        逻辑回顾的代价函数为:

J(\theta)=\frac{1}{m}\sum_{i=1}^{m}[-y^{(i)}log(h_{\theta}(x^{(i)}))-(1-y^{(i)})log(1-h_{\theta}(x^{(i)}))]

        梯度为:

\frac{\partial J(\theta)}{\partial\theta_{j}}=\frac{1}{m}\sum_{i=1}^{m}(h_{\theta}(x^{(i)})-y^{(i)})x_{j}^{(i)}

        尽管梯度公式与线性回归的梯度公式相同,但是由于h_{\theta}(x)不同,所以公式实际上是不一样的。

  1. # 代价函数
  2. def cost(theta, X, y):
  3. # 转成矩阵运算
  4. # 经过优化算法后的theta是narray类型,不能和martix类型直接相乘,需要重新转成matrix类型
  5. # 或者使用np.dot()进行相乘
  6. theta = np.matrix(theta)
  7. part1 = y.T * np.log(sigmoid(X * theta.T))
  8. part2 = (1 - y).T * np.log(1 - sigmoid(X * theta.T))
  9. # 使用np.dot()时
  10. # 写成这种形式个人认为还就是符合矩阵运算规则
  11. # part1 = np.log(sigmoid(X.dot(theta)))*y
  12. # part2 = np.log(1 - sigmoid(X.dot(theta)))*y
  13. return -(part1 + part2) / len(X)
  14. # 计算梯度
  15. def gradient(theta, X, y):
  16. theta = np.matrix(theta)
  17. return (X.T * (sigmoid(X * theta.T) - y)) / len(X)
'
运行

        写好之后调用cost函数可知初始参数的代价为0.6931471805599452

调用工具库计算θ

        在线性回归的作业中,我们使用了梯度下降找到了线性回归模型的最优参数,但在本次作业中我们不再自己实现梯度下降,而是调用已有的库,找到最优解,意味着我们不需要自己定义迭代次数与学习率。在Python中我们可以调用scipy.optimize.fmin_tnc或.minimize找到最优解

  1. # 使用高级优化算法
  2. # 两种方法
  3. result = opt.fmin_tnc(func=cost, x0=theta, fprime=gradient, args=(X, y))
  4. result2 = opt.minimize(fun=cost, x0=theta, jac=gradient, args=(X, y), method='TNC')
  5. print(result)
  6. print(result2)

        其中所得到的最优参数为[-25.16131858,   0.20623159,   0.20147149],其代价为0.203

画出决策曲线

  1. # 画图
  2. # 决策边界
  3. plotting_x1 = np.linspace(30, 100, 100)
  4. plotting_h1 = (- result[0][0] - result[0][1] * plotting_x1) / result[0][2]
  5. fig, ax = plt.subplots(figsize=(12, 8))
  6. ax.plot(plotting_x1, plotting_h1, 'y', label='Prediction')
  7. # 散点图
  8. ax.scatter(x=positive['Exam1 Sorce'], y=positive['Exam2 Sorce'], color='b', marker='o', label='Admitted')
  9. ax.scatter(x=negative['Exam1 Sorce'], y=negative['Exam2 Sorce'], color='r', marker='x', label='Not Admitted')
  10. ax.legend() # 显示图例
  11. ax.set_xlabel('Exam1 Sorce')
  12. ax.set_ylabel('Exam2 Sorce')
  13. plt.show()

 评价逻辑回归模型

        在确定参数之后,我们可以使用这个模型来预测某学生是否录取。如果一个学生exam1得分35,exam2得分95,通过该模型得到的录取概率为0.768

  1. def hfunc(theta, X):
  2. return sigmoid(np.dot(X, theta))
'
运行

正则化的逻辑回归

          在本部分练习中,您将实现正则化逻辑回归来预测来自制造厂的微芯片是否通过质量保证(QA)。在QA过程中,每个微芯片都要经过各种测试,以确保其正常运行。假设您是工厂的产品经理,在两个不同的测试中有一些微芯片的测试结果。从这两项测试中,您想确定该微芯片是否应该被接受或拒绝。为了帮助您做出决定,您有一个关于过去微芯片测试结果的数据集,从中您可以建立一个逻辑回归模型。

数据可视化

        先导入库和数据

  1. import numpy as np
  2. import pandas as pd
  3. import matplotlib.pyplot as plt
  4. import scipy.optimize as opt
  5. # 导入数据
  6. path = r'E:\Code\ML\ml_learning\ex2-logistic regression\ex2data2.txt'
  7. data = pd.read_csv(path, header=None, names=['Test1', 'Test2', 'Accepted'])

        数据如下

Test1Test2Accepted
00.0512670.6995601
1-0.0927420.6849401
2-0.2137100.6922501
3-0.3750000.5021901
4-0.5132500.4656401
............
113-0.7206200.5387400
114-0.5938900.4948800
115-0.4844500.9992700
116-0.0063360.9992700
1170.632650-0.0306120

        数据可视化与第一部分练习类似,这里将可视化部分封装在函数中方便复用,其中注释掉的那条代码用于画最后的决策边界。

  1. # 数据可视化
  2. def plotData():
  3. # 根据Admitted分类
  4. positive = data[data['Accepted'].isin([1])]
  5. negative = data[data['Accepted'].isin([0])]
  6. fig, ax = plt.subplots(figsize=(6, 5))
  7. # 录取的使用蓝圆表示
  8. # 不录取的使用红叉表示
  9. ax.scatter(x=positive['Test1'], y=positive['Test2'], s=70, color='y', marker='o', label='Admitted')
  10. ax.scatter(x=negative['Test1'], y=negative['Test2'], s=50, color='r', marker='x', label='Not Admitted')
  11. ax.legend() # 显示图例
  12. ax.set_xlabel('Test1')
  13. ax.set_ylabel('Test2')
  14. # ax.contour(xx, yy, z, 0)
  15. plt.show()
'
运行

        通过上图可知,我们不可以直接使用直线将其区分开,因为逻辑回归只能找到一个线性的决策边界,故不能很好的拟合这里的数据。

特征工程

        因此我们可以尝试通过给每个数据点创造更多特征,使其更好的拟合数据,在这里我们可以将特征映射到x1,x2的6次方的多项式项,从而我们的特征向量从两个变成28维向量,更高纬度向量上训练处理的逻辑回归的分类器具有更加复杂的决策边界,因此能产生非线性边界

         代码能产生00,01,10,20,11,02等序列

  1. # 特征工程
  2. def featureMapping(x1, x2, degree):
  3. data = {}
  4. for i in np.arange(degree + 1):
  5. for j in np.arange(i + 1):
  6. data["F{}{}".format(i - j, j)] = np.power(x1, i - j) * np.power(x2, j)
  7. pass
  8. return pd.DataFrame(data)
'
运行
F00F10F01F20F11F02F30F21F12F03...F23F14F05F60F51F42F33F24F15F06
01.00.0512670.6995600.0026280.0358640.4893841.347453e-040.0018390.0250890.342354...0.0009001.227829e-021.675424e-011.815630e-082.477505e-073.380660e-064.613055e-056.294709e-048.589398e-031.172060e-01
11.0-0.0927420.6849400.008601-0.0635230.469143-7.976812e-040.005891-0.0435090.321335...0.002764-2.041205e-021.507518e-016.362953e-07-4.699318e-063.470651e-05-2.563226e-041.893054e-03-1.398103e-021.032560e-01
21.0-0.2137100.6922500.045672-0.1479410.479210-9.760555e-030.031616-0.1024120.331733...0.015151-4.907685e-021.589699e-019.526844e-05-3.085938e-049.995978e-04-3.237900e-031.048821e-02-3.397345e-021.100469e-01
31.0-0.3750000.5021900.140625-0.1883210.252195-5.273438e-020.070620-0.0945730.126650...0.017810-2.385083e-023.194040e-022.780914e-03-3.724126e-034.987251e-03-6.678793e-038.944062e-03-1.197765e-021.604015e-02
41.0-0.5132500.4656400.263426-0.2389900.216821-1.352032e-010.122661-0.1112830.100960...0.026596-2.412849e-022.189028e-021.827990e-02-1.658422e-021.504584e-02-1.365016e-021.238395e-02-1.123519e-021.019299e-02
..................................................................
1131.0-0.7206200.5387400.519293-0.3882270.290241-3.742131e-010.279764-0.2091530.156364...0.081199-6.070482e-024.538330e-021.400354e-01-1.046913e-017.826790e-02-5.851357e-024.374511e-02-3.270412e-022.444980e-02
1141.0-0.5938900.4948800.352705-0.2939040.244906-2.094682e-010.174547-0.1454470.121199...0.042748-3.562096e-022.968243e-024.387691e-02-3.656200e-023.046659e-02-2.538737e-022.115493e-02-1.762810e-021.468924e-02
1151.0-0.4844500.9992700.234692-0.4840960.998541-1.136964e-010.234520-0.4837430.997812...0.234178-4.830370e-019.963553e-011.292688e-02-2.666414e-025.499985e-02-1.134476e-012.340073e-01-4.826843e-019.956280e-01
1161.0-0.0063360.9992700.000040-0.0063320.998541-2.544062e-070.000040-0.0063270.997812...0.000040-6.317918e-039.963553e-016.472253e-14-1.020695e-111.609667e-09-2.538495e-074.003286e-05-6.313306e-039.956280e-01
1171.00.632650-0.0306120.400246-0.0193670.0009372.532156e-01-0.0122520.000593-0.000029...-0.0000115.555592e-07-2.688181e-086.411816e-02-3.102482e-031.501196e-04-7.263830e-063.514745e-07-1.700678e-088.229060e-10

代价函数与梯度

        尽管特征映射能构建一个更强大的分类器,但是同时也很容易发生过拟合的问题,因此我们需要使用正则化逻辑回归拟合数据

        代价函数的定义为

J(\theta) = \frac{1}{m}\sum_{i=1}^{m}[-y^{(i)}log(h_{\theta}(x^{(i)}))-(1-y^{(i)})log(1-h_{\theta})(x^{(i)})]+\frac{\lambda }{2m}\sum_{j=1}^{n}\theta^{2}_{j}

        其中正则化是从θ1开始而不是从θ0

        故梯度的定义为

\frac{\partial J(\theta) }{\partial \theta_{j}} = \frac{1}{m}\sum_{i=1}^{m}(h_{\theta}(x^{(i)})-y^{(i)})x^{(i)}_{j}                                             for j=0

\frac{\partial J(\theta) }{\partial \theta_{j}} = (\frac{1}{m}\sum_{i=1}^{m}(h_{\theta}(x^{(i)})-y^{(i)})x^{(i)}_{j}) +\frac{\lambda }{m}\theta_{j}                           for j\geq 1

        其中learnRate是参数λ,计算梯度的时候并没有采用for循环然后if语句判断,而是直接使用上面第二条公式,但是j = 0时,后面那一项被赋值为0。

  1. # 正则化代价函数
  2. def costReg(theta, X, y, learningRate):
  3. # 转成矩阵运算
  4. # 经过优化算法后的theta是narray类型,不能和martix类型直接相乘,需要重新转成matrix类型
  5. # 或者使用np.dot()进行相乘
  6. theta = np.matrix(theta)
  7. part1 = y * np.log(sigmoid(X * theta.T))
  8. part2 = (1 - y) * np.log(1 - sigmoid(X * theta.T))
  9. part3 = (learningRate / (2 * len(X))) * theta * theta.T
  10. return float(-(part1 + part2) / len(X) + part3)
  11. # 计算梯度
  12. def gradientReg(theta, X, y, learnRate):
  13. theta = np.matrix(theta)
  14. reg = (learnRate / len(X)) * theta
  15. reg[0, 0] = 0
  16. gradient = (X.T * (sigmoid(X * theta.T) - y.T)) / len(X)
  17. return gradient + reg.T
'
运行

        调用代价函数可知初始参数的代价为0.693

        在这里我们同样使用高级优化算法计算最优参数

  1. # 数据准备
  2. x1 = np.array(data['Test1'])
  3. x2 = np.array(data['Test2'])
  4. data2 = featureMapping(x1, x2, 6)
  5. X = np.matrix(data2)
  6. y = np.matrix(data['Accepted'])
  7. theta = np.zeros(X.shape[1])
  8. learnRate = 0.5
  9. result = opt.fmin_tnc(func=costReg, x0=theta, fprime=gradientReg, args=(X, y, learnRate))
  10. final_theta = result[0]

        得到的最优参数如下

array([ 1.69807202,  0.97487663,  1.66774106, -2.71241653, -1.48773984,
       -2.10885161,  0.2720763 , -0.56458993, -0.51103726, -0.18845331,
       -1.97742887, -0.03557666, -0.89624193, -0.46813131, -1.62936247,
       -0.29086477, -0.29607859, -0.01239111, -0.43124108, -0.47347733,
       -0.47101481, -1.4229088 ,  0.07459948, -0.41702859,  0.04547877,
       -0.48484035, -0.26513722, -1.12833145])

画图

        在这里用利用contour函数将决策边界画出来

  1. x = np.linspace(-1, 1.5, 150)
  2. xx, yy = np.meshgrid(x, x)
  3. z = np.array(featureMapping(xx.ravel(), yy.ravel(), 6))
  4. z = z @ final_theta
  5. z = z.reshape(xx.shape)
  6. plotData()
  7. # 数据可视化
  8. def plotData():
  9. # 根据Admitted分类
  10. positive = data[data['Accepted'].isin([1])]
  11. negative = data[data['Accepted'].isin([0])]
  12. fig, ax = plt.subplots(figsize=(6, 5))
  13. # 录取的使用蓝圆表示
  14. # 不录取的使用红叉表示
  15. ax.scatter(x=positive['Test1'], y=positive['Test2'], s=70, color='y', marker='o', label='Admitted')
  16. ax.scatter(x=negative['Test1'], y=negative['Test2'], s=50, color='r', marker='x', label='Not Admitted')
  17. ax.legend() # 显示图例
  18. ax.set_xlabel('Test1')
  19. ax.set_ylabel('Test2')
  20. ax.contour(xx, yy, z, 0)
  21. plt.show()

        结果如下

 完整代码

  1. import numpy as np
  2. import pandas as pd
  3. import matplotlib.pyplot as plt
  4. import scipy.optimize as opt
  5. # 导入数据
  6. path = r'E:\Code\ML\ml_learning\ex2-logistic regression\ex2data1.txt'
  7. data = pd.read_csv(path, header=None, names=['Exam1 Sorce', 'Exam2 Sorce', 'Admitted'])
  8. # 数据可视化 需要将不同类型的数据使用不同标记画,故不能使用上次的data.plot()
  9. # 根据Admitted分类
  10. positive = data[data['Admitted'].isin([1])]
  11. negative = data[data['Admitted'].isin([0])]
  12. fig, ax = plt.subplots(figsize=(12, 8))
  13. # 录取的使用蓝圆表示
  14. # 不录取的使用红叉表示
  15. # ax.scatter(x=positive['Exam1 Sorce'], y=positive['Exam2 Sorce'], color='b', marker='o', label='Admitted')
  16. # ax.scatter(x=negative['Exam1 Sorce'], y=negative['Exam2 Sorce'], color='r', marker='x', label='Not Admitted')
  17. # ax.legend() # 显示图例
  18. # ax.set_xlabel('Exam1 Sorce')
  19. # ax.set_ylabel('Exam2 Sorce')
  20. # plt.show()
  21. # 数据处理部分
  22. # 添加x0 = 1
  23. if 'Ones' not in data.columns:
  24. data.insert(0, 'Ones', 1)
  25. # 输入输出
  26. cols = data.shape[1]
  27. X = np.matrix(data.iloc[:, 0:cols - 1])
  28. y = np.matrix(data.iloc[:, cols - 1:cols])
  29. theta = np.zeros(X.shape[1])
  30. # sigmoid函数
  31. def sigmoid(z):
  32. return 1 / (1 + np.exp(-z))
  33. # 代价函数
  34. def cost(theta, X, y):
  35. # 转成矩阵运算
  36. # 经过优化算法后的theta是narray类型,不能和martix类型直接相乘,需要重新转成matrix类型
  37. # 或者使用np.dot()进行相乘
  38. theta = np.matrix(theta)
  39. part1 = y.T * np.log(sigmoid(X * theta.T))
  40. part2 = (1 - y).T * np.log(1 - sigmoid(X * theta.T))
  41. # 使用np.dot()时
  42. # 写成这种形式个人认为还就是符合矩阵运算规则
  43. # part1 = np.log(sigmoid(X.dot(theta)))*y
  44. # part2 = np.log(1 - sigmoid(X.dot(theta)))*y
  45. return float(-(part1 + part2) / len(X))
  46. # 计算梯度
  47. def gradient(theta, X, y):
  48. theta = np.matrix(theta)
  49. return (X.T * (sigmoid(X * theta.T) - y)) / len(X)
  50. def hfunc(theta, X):
  51. return sigmoid(np.dot(X, theta))
  52. # 使用高级优化算法
  53. # 两种方法
  54. result = opt.fmin_tnc(func=cost, x0=theta, fprime=gradient, args=(X, y))
  55. result2 = opt.minimize(fun=cost, x0=theta, jac=gradient, args=(X, y), method='TNC')
  56. print(result)
  57. # print(result2)
  58. # 画图
  59. # 决策边界
  60. # plotting_x1 = np.linspace(30, 100, 100)
  61. # plotting_h1 = (- result[0][0] - result[0][1] * plotting_x1) / result[0][2]
  62. # fig, ax = plt.subplots(figsize=(12, 8))
  63. # ax.plot(plotting_x1, plotting_h1, 'y', label='Prediction')
  64. # # 散点图
  65. # ax.scatter(x=positive['Exam1 Sorce'], y=positive['Exam2 Sorce'], color='b', marker='o', label='Admitted')
  66. # ax.scatter(x=negative['Exam1 Sorce'], y=negative['Exam2 Sorce'], color='r', marker='x', label='Not Admitted')
  67. # ax.legend() # 显示图例
  68. # ax.set_xlabel('Exam1 Sorce')
  69. # ax.set_ylabel('Exam2 Sorce')
  70. # plt.show()
  1. import numpy as np
  2. import pandas as pd
  3. import matplotlib.pyplot as plt
  4. import scipy.optimize as opt
  5. # 导入数据
  6. path = r'E:\Code\ML\ml_learning\ex2-logistic regression\ex2data2.txt'
  7. data = pd.read_csv(path, header=None, names=['Test1', 'Test2', 'Accepted'])
  8. # 数据可视化
  9. def plotData():
  10. # 根据Admitted分类
  11. positive = data[data['Accepted'].isin([1])]
  12. negative = data[data['Accepted'].isin([0])]
  13. fig, ax = plt.subplots(figsize=(6, 5))
  14. # 录取的使用蓝圆表示
  15. # 不录取的使用红叉表示
  16. ax.scatter(x=positive['Test1'], y=positive['Test2'], s=70, color='y', marker='o', label='Admitted')
  17. ax.scatter(x=negative['Test1'], y=negative['Test2'], s=50, color='r', marker='x', label='Not Admitted')
  18. ax.legend() # 显示图例
  19. ax.set_xlabel('Test1')
  20. ax.set_ylabel('Test2')
  21. ax.contour(xx, yy, z, 0)
  22. plt.show()
  23. # 特征工程
  24. def featureMapping(x1, x2, degree):
  25. data = {}
  26. for i in np.arange(degree + 1):
  27. for j in np.arange(i + 1):
  28. data["F{}{}".format(i - j, j)] = np.power(x1, i - j) * np.power(x2, j)
  29. pass
  30. return pd.DataFrame(data)
  31. # 实现函数
  32. # sigmoid函数
  33. def sigmoid(z):
  34. return 1 / (1 + np.exp(-z))
  35. # 正则化代价函数
  36. def costReg(theta, X, y, learningRate):
  37. # 转成矩阵运算
  38. # 经过优化算法后的theta是narray类型,不能和martix类型直接相乘,需要重新转成matrix类型
  39. # 或者使用np.dot()进行相乘
  40. theta = np.matrix(theta)
  41. part1 = y * np.log(sigmoid(X * theta.T))
  42. part2 = (1 - y) * np.log(1 - sigmoid(X * theta.T))
  43. part3 = (learningRate / (2 * len(X))) * theta * theta.T
  44. # 使用np.dot()时
  45. # 写成这种形式个人认为还就是符合矩阵运算规则
  46. # part1 = np.log(sigmoid(X.dot(theta)))*y
  47. # part2 = np.log(1 - sigmoid(X.dot(theta)))*y
  48. return float(-(part1 + part2) / len(X) + part3)
  49. # 计算梯度
  50. def gradientReg(theta, X, y, learnRate):
  51. theta = np.matrix(theta)
  52. reg = (learnRate / len(X)) * theta
  53. reg[0, 0] = 0
  54. gradient = (X.T * (sigmoid(X * theta.T) - y.T)) / len(X)
  55. return gradient + reg.T
  56. # 数据准备
  57. x1 = np.array(data['Test1'])
  58. x2 = np.array(data['Test2'])
  59. data2 = featureMapping(x1, x2, 6)
  60. X = np.matrix(data2)
  61. y = np.matrix(data['Accepted'])
  62. theta = np.zeros(X.shape[1])
  63. learnRate = 0.5
  64. result = opt.fmin_tnc(func=costReg, x0=theta, fprime=gradientReg, args=(X, y, learnRate))
  65. final_theta = result[0]
  66. x = np.linspace(-1, 1.5, 150)
  67. xx, yy = np.meshgrid(x, x)
  68. z = np.array(featureMapping(xx.ravel(), yy.ravel(), 6))
  69. z = z @ final_theta
  70. z = z.reshape(xx.shape)
  71. plotData()
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Guff_9hys/article/detail/804913
推荐阅读
相关标签
  

闽ICP备14008679号