IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 一元线性回归(sklearn) -> 正文阅读

[人工智能]一元线性回归(sklearn)

1.手工梯度下降法

import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
#载入数据
data=np.genfromtxt("/root/jupyter_projects/data/fangjia1.csv",delimiter=',')
#x_data=data[0:,0]#分离data数据,取所有行第0列 
x_data=data[:,0]#等价于上边那行
y_data=data[:,1]
plt.scatter(x_data,y_data)#绘制散点图
plt.show()

请添加图片描述

#学习率learning rate
lr=0.0001
#截距
theta_0=0
#斜率
theta_1=0
#最大迭代次数
epochs=50

J ( θ 0 , θ 1 ) = 1 2 m ∑ i = 1 m ( ( ^ y ( i ) ) ? y ( i ) ) 2 = 1 2 m ∑ i = 1 m ( h θ ( x ( i ) ) ? y ( i ) ) 2 J(\theta_{0},\theta_{1})=\frac{1}{2m}\sum_{i=1}^{m}{(\hat(y^{(i)})-y^{(i)})^{2}}=\frac{1}{2m}\sum_{i=1}^{m}{(h_{\theta}(x^{^{(i)}})-y^{(i)})^{2}} J(θ0?,θ1?)=2m1?i=1m?((^?y(i))?y(i))2=2m1?i=1m?(hθ?(x(i))?y(i))2

#最小二乘法
#计算代价函数
def compute_error(theta_0,theta_1,x_data,y_data):
    totalError=0
    for i in range(0,len(x_data)):
        totalError+=(theta_1*x_data[i]+theta_0-y_data[i])**2
    totalError
    return totalError/float(2*len(x_data))

对代价函数求偏导:
? ? θ j J ( θ 0 , θ 1 ) = ? ? θ j 1 2 m ∑ i = 1 m ( h θ ( x ( i ) ) ? y ( i ) ) 2 \frac{\partial }{\partial \theta_j}J(\theta_0,\theta_1)=\frac{\partial}{\partial \theta_j}\frac{1}{2m}\sum_{i=1}^{m}({h_\theta(x^{(i)})-y^{(i)})^2} ?θj???J(θ0?,θ1?)=?θj???2m1?i=1m?(hθ?(x(i))?y(i))2

θ 0 : j = 0 \theta_0:j=0 θ0?:j=0: ? ? θ 0 J ( θ 0 , θ 1 ) = 1 m ∑ i = 1 m ( h θ ( x ( i ) ) ? y ( i ) ) \frac{\partial }{\partial \theta_0}J(\theta_0,\theta_1)=\frac{1}{m}\sum_{i=1}^{m}({h_\theta(x^{(i)})-y^{(i)})} ?θ0???J(θ0?,θ1?)=m1?i=1m?(hθ?(x(i))?y(i))

θ 1 : j = 1 \theta_1:j=1 θ1?:j=1: ? ? θ 1 J ( θ 0 , θ 1 ) = 1 m ∑ i = 1 m ( h θ ( x ( i ) ) ? y ( i ) ) ? x ( i ) \frac{\partial }{\partial \theta_1}J(\theta_0,\theta_1)=\frac{1}{m}\sum_{i=1}^{m}({h_\theta(x^{(i)})-y^{(i)})*x^{(i)}} ?θ1???J(θ0?,θ1?)=m1?i=1m?(hθ?(x(i))?y(i))?x(i)

应用梯度下降法修改不断当前值

θ 0 \theta_0 θ0?= θ 0 ? α ? ? ? θ 0 J ( θ 0 , θ 1 ) = 1 m ∑ i = 1 m ( h θ ( x ( i ) ) ? y ( i ) ) \theta_0-\alpha*\frac{\partial }{\partial \theta_0}J(\theta_0,\theta_1)=\frac{1}{m}\sum_{i=1}^{m}({h_\theta(x^{(i)})-y^{(i)})} θ0??α??θ0???J(θ0?,θ1?)=m1?i=1m?(hθ?(x(i))?y(i))

θ 1 \theta_1 θ1?= θ 1 ? α ? ? ? θ 0 J ( θ 0 , θ 1 ) = 1 m ∑ i = 1 m ( h θ ( x ( i ) ) ? y ( i ) ) ? x ( i ) \theta_1-\alpha*\frac{\partial }{\partial \theta_0}J(\theta_0,\theta_1)=\frac{1}{m}\sum_{i=1}^{m}({h_\theta(x^{(i)})-y^{(i)})*x^{(i)}} θ1??α??θ0???J(θ0?,θ1?)=m1?i=1m?(hθ?(x(i))?y(i))?x(i)

#梯度下降
def gradient_descent_runner(x_data,y_data,theta_0,theta_1,lr,epochs):
    m=len(x_data)
    #达到最大迭代次数后停止
    for i in range(epochs):
        theta_0_grad=0
        theta_1_grad=0#求梯度该变量
        for j in range(0,len(x_data)):
            theta_0_grad+=(1/m)*((theta_1*x_data[j]+theta_0)-y_data[j])
            theta_1_grad+=(1/m)*((theta_1*x_data[j]+theta_0)-y_data[j])*x_data[j]
        theta_0=theta_0-(theta_0_grad*lr)#同时更新参数模型
        theta_1=theta_1-(theta_1_grad*lr)

        #没迭代5次更新一次图像
        if i%5==0:
            print("epochs:",i)
            plt.scatter(x_data,y_data)
            plt.plot(x_data,theta_1*x_data+theta_0,'r')
            plt.show()
    return theta_0,theta_1
        
print("starting theta_0={0},theta_1={1},error={2}".format(theta_0,theta_1,compute_error(theta_0,theta_1,x_data,y_data)))
print('running')
theta_0,theta_1=gradient_descent_runner(x_data,y_data,theta_0,theta_1,lr,epochs)
print("end{0} theta_0={1},theta_1={2},error={3}".format(epochs,theta_0,theta_1,compute_error(theta_0,theta_1,x_data,y_data)))


#画图
# plt.scatter(x_data,y_data)
# plt.plot(x_data,theta_1*x_data+theta_0,'r')
# plt.show()

starting theta_0=0,theta_1=0,error=2782.5539172416056
running
epochs: 0

在这里插入图片描述

epochs: 10

在这里插入图片描述

epochs: 20

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-2JG7rjll-1641220068004)(output_7_9.png)]

epochs: 30

在这里插入图片描述

epochs: 40

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-S1bQzLt5-1641220068008)(output_7_17.png)]

epochs: 45

在这里插入图片描述

end50 theta_0=0.030569950649287983,theta_1=1.4788903781318357,error=56.32488184238028

2.sklearn实现

import numpy as np
import matplotlib.pyplot as plt
from sklearn.linear_model import LinearRegression
%matplotlib inline
#载入数据
data=np.genfromtxt("/root/jupyter_projects/data/fangjia1.csv",delimiter=',')
#x_data=data[0:,0]#分离data数据,取所有行第0列 
x_data=data[:,0]#等价于上边那行
y_data=data[:,1]
plt.scatter(x_data,y_data)#绘制散点图
plt.show()
print(x_data.shape)
#x_data

请添加图片描述

(100,)
x_data=data[:,0,np.newaxis]
print(x_data.shape)#将x_data 转换为一个矩阵
y_data=data[:,1,np.newaxis]
#x_data
(100, 1)
#创建并拟合模型
model=LinearRegression()
theta=model.fit(x_data,y_data)

#画图
plt.scatter(x_data,y_data)
plt.plot(x_data,model.predict(x_data),'r')
plt.show()
print(theta)
print(model.coef_)#theta_0
print(model.intercept_)#theta_1
```![请添加图片描述](https://img-blog.csdnimg.cn/0b20585b7b97402a8930dfce71636c0f.png?x-oss-process=image/watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA5piv5b-Y55Sf5ZWK,size_12,color_FFFFFF,t_70,g_se,x_16)




  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-01-04 13:26:12  更:2022-01-04 13:27:36 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/26 22:47:51-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码