赞
踩
我们之所以建模, 主要的价值在于预测. 学习统计时, 看到各种模型,
线性回归,多元线性回归, 曲线回归等等, 都是为了建模.
但是模型是否好呢? 我们可以查看R方, 调和R方.
机器学习的到来, 为统计打开了另一扇大门. 交叉验证, 查看预测准确度.
如果说现代统计学是一门循序渐进, 系统完善的科学, 机器学习则是各种流派,
黑猫白猫抓到老鼠就是好猫. 英雄不问出处.
机器学习的到来, 让结果说话, 而不是所谓的逻辑或者假定. 存在的就是合理的,
路径可能没有发现, 终究会发现. 有可能是另一个语言系统中了.
In [4]:
f = function(x) 3 + 2*x
x = rnorm(100)
y = f(x) + 0.5*rnorm(100)
dat =data.frame(x=x,y=y)
head(dat)
x y
0.7656238 4.5241703
-1.2045951 0.1475003
1.8686146 6.6297829
0.7531363 4.9709326
-0.6847217 1.7381070
-0.7545989 1.4639742
In [5]:
mod = lm(y~x) summary(mod) Call: lm(formula = y ~ x) Residuals: Min 1Q Median 3Q Max -0.89810 -0.33549 0.01217 0.30443 1.03068 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 2.99220 0.04318 69.29 <2e-16 *** x 1.90101 0.04506 42.19 <2e-16 *** --- Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: 0.4266 on 98 degrees of freedom Multiple R-squared: 0.9478, Adjusted R-squared: 0.9473 F-statistic: 1780 on 1 and 98 DF, p-value: < 2.2e-16
模型参数
In [6]:
coef(mod)
公式:
可以看出来, 通过数据还原x和y的关系, 和真是的x和y的关系比较接近.
In [7]:
plot(x,y,main="this is a plot")
abline(coef(mod),col="blue")
预测x=-1和0.5时y的值
In [8]:
predict(mod,list(x=c(-1,0.5)),se.fit = TRUE)
In [ ]:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。