总结: 回归属于监督学习的一种的方法, 从连续的数据中得到模型, 然后将该数据模型进行预测或者分类.
线性回归模型
把数据通过画图画出来, 如果是下面这样的, 那么他就适合于线性回归 ,
这组数据不属于正态分布,
但用线性回归的话, 就可以很好的进行拟合, 如果用多项式回归的话, 那么拟合度会很差.
画一个拟合曲线观察一下, 还是比较拟合的
可以查看这两张图片, 经过线性回归之后, 第一张是没有处理的, 第二张是处理后.. 观察发生了什么变化
多项式回归模型
根据数据的发展趋势来进行来决定, 当太过于复杂时, 那么多项式回归就不在适合于处理这组数据.
多项式回归模型一般都是处理正态分布的数据,
多项式回归的代码比线性回归的就多了一行
polynomial=PolynomialFeatures(degree=2) # 构建多项式回归器对象 # degree 是多项式的次数, 此处初步的设置为 2
如果他是这种数据的话, 那么多项式回归就适合处理这组数据
画一个拟合曲线, 看一下他与这组数据的拟合程度
很显然, 拟合程度很高
可以观察这两张图片, 经过多项式回归之后, 第一张是没有处理的, 第二张是处理后.. 观察发生了什么变化
周五一个读者问我怎么在图中添加异常点 , 我在这篇中带着解释一下
- # 以下加入两个异常点, 再用线性回归器进行拟合
- abnormal_x=[16.5,17.9]
- abnormal_y=[25.98,24.12]
- print('x with abnormal point: {}'.format(x)) print('y with abnormal point: {}'.format(y))
- # 将异常点绘制出来 plt.scatter(abnormal_x,abnormal_y,marker='x',label='abnormal')
没有添加异常点之前
添加异常点之后, 那两个蓝色的点就是异常点
来源: https://www.cnblogs.com/lowbi/p/10709121.html