IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> <Pytorch深度学习实践>(二):梯度下降算法 (Gradient Descent) -> 正文阅读

[人工智能]<Pytorch深度学习实践>(二):梯度下降算法 (Gradient Descent)

梯度下降算法

??穷举法和观察法不可行,因为w的数量如果过大,将会大大增加时间开销且可能找到局部最优解
??梯度下降:(能够找到局部最优解,但也许找不到全局最优解(没有任何一个局部最优比他好))
??那么为什么深度学习中大多数还是使用梯度下降来寻找最优解,因为在很多学习中得到结果,深度学习最优化问题中并不存在很多局部最优解。
但存在一个点(鞍点,偏导为0)
?? y = w x + b y=wx+b y=wx+b
??MSE:
c o s t ( w ) = 1 N ∑ n = 1 N ( y ^ n ? y n ) 2 cost(w)=\frac{1}{N}\sum_{n=1}^{N}{(\hat{y}_n-y_n)^2} cost(w)=N1?n=1N?(y^?n??yn?)2
??优化目标: w ? = arg?min ? w c o s t ( w ) w^*=\argmin_{w}{cost(w)} w?=wargmin?cost(w)
??求导数: ? c o s t ? w \frac{\partial cost}{\partial w} ?w?cost?
??update: w = w ? α ? c o s t ? w , w=w-\alpha \frac{\partial cost}{\partial w}, w=w?α?w?cost?, α 是 学 习 率 ( 步 长 ) \alpha 是学习率(步长) α
??然后就是迭代就最优的过程:
? c o s t ? w = ? 1 N ∑ n = 1 N ( x n ? w ? y n ) 2 ? w \frac{\partial cost}{\partial w}=\frac{\partial \frac{1}{N} \sum_{n=1}^{N}(x_n\cdot w-y_n)^2}{ \partial w} ?w?cost?=?w?N1?n=1N?(xn??w?yn?)2?
= 1 N ∑ n = 1 N ? ( x n ? w ? y n ) 2 ? w =\frac{1}{N}\sum_{n=1}^{N}{\frac{\partial (x_n\cdot w-y_n)^2}{\partial w}} =N1?n=1N??w?(xn??w?yn?)2?
= 1 N ∑ n = 1 N 2 ? ( x n ? w ? y n ) ? ( x n ? w ? y n ) ? w =\frac{1}{N}\sum_{n=1}^{N}{2\cdot (x_n\cdot w-y_n)\frac{\partial (x_n\cdot w-y_n)}{\partial w}} =N1?n=1N?2?(xn??w?yn?)?w?(xn??w?yn?)?
= 1 N ∑ n = 1 N 2 ? x n ? ( x n ? w ? y n ) =\frac{1}{N}\sum_{n=1}^{N}{2\cdot x_n\cdot (x_n\cdot w-y_n)} =N1?n=1N?2?xn??(xn??w?yn?)
Update:
w = w ? α 1 N ∑ n = 1 N 2 ? x n ? ( x n ? w ? y n ) w=w-\alpha\frac{1}{N}\sum_{n=1}^{N}{2\cdot x_n\cdot (x_n\cdot w-y_n)} w=w?αN1?n=1N?2?xn??(xn??w?yn?)
??
??
??代码:

import random

import matplotlib.pyplot as plt

x_data = [1.0, 2.0, 3.0]
y_data = [2.0, 4.0, 6.0]

w = random.random() # 随机初始化初始权重


def forward(x):
    """
    定义的线性模型
    """
    return x * w


def cost(x, y):
    """
    损失函数
    """
    cost = 0
    for x_i, y_i in zip(x, y):
        y_pred = forward(x_i)
        cost += (y_pred - y_i) ** 2
    return cost / (len(x))


def gradient(x, y):
    grad = 0
    for x_i, y_i in zip(x, y):
        grad += 2 * x_i * (x_i * w - y_i)
    return grad / (len(x))


epoch_list = []
cost_list = []
for epoch in range(100):
    cost_val = cost(x_data, y_data)
    grad_val = gradient(x_data, y_data)
    w -= 0.01 * grad_val
    epoch_list.append(epoch)
    cost_list.append(cost_val)
    print("epoch:", epoch, "w:", w, "loss(MSE):", cost_val)
print("Predict:", forward(4))

plt.plot(epoch_list, cost_list)
plt.ylabel('Loss')
plt.xlabel('w')
plt.show()

??误差随着训练轮次的增加逐渐减少
在这里插入图片描述

??
??
??
??
??
??
??
??
??
??
??
??
??
??

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-11-20 18:23:44  更:2021-11-20 18:23:54 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/27 4:30:01-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码