IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 数据结构与算法 -> 逻辑回归的梯度下降法的向量化(详细过程) -> 正文阅读

[数据结构与算法]逻辑回归的梯度下降法的向量化(详细过程)

逻辑回归的梯度下降公式

逻辑回归的梯度下降公式:

θ j : = θ j ? α 1 m ∑ i = 1 m ( h θ ( x ( i ) ) ? y ( i ) ) x j ( i ) \theta_{j}:=\theta_{j}-\alpha \frac{1}{m} \sum_{i=1}^{m}\left(h_{\theta}\left(x^{(i)}\right)-y^{(i)}\right) x_{j}^{(i)} θj?:=θj??αm1?i=1m?(hθ?(x(i))?y(i))xj(i)?

其中:
h θ ( x ( i ) ) = g ( θ T x ( i ) ) = 1 1 + e ? θ T x ( i ) h_{\theta}(x^{(i)})=g\left(\theta^T x^{(i)}\right)=\frac{1}{1+e^{-\theta^{T} x^{(i)}}} hθ?(x(i))=g(θTx(i))=1+e?θTx(i)1?

向量化后的公式为:

θ : = θ ? α m X T ( g ( X θ ) ? y ? ) \theta:=\theta-\frac{\alpha}{m} X^{T}(g(X \theta)-\vec{y}) θ:=θ?mα?XT(g(Xθ)?y ?)

其中:

y ? = ( y ( 1 ) y ( 2 ) ? y ( m ) ) ??????? θ = ( θ 0 θ 1 ? θ n ) ?????? X = [ x 0 ( 1 ) x 1 ( 1 ) ? x n ( 1 ) x 0 ( 2 ) x 1 ( 2 ) ? x n ( 2 ) ? ? x 0 ( m ) x 1 ( m ) ? x n ( m ) ] m × ( n + 1 ) \vec{y}=\left(\begin{array}{c} y^{(1)} \\ y^{(2)} \\ \vdots \\ y^{(m)} \end{array}\right)~~~~~~~\theta=\left(\begin{array}{c} \theta_{0} \\ \theta_{1} \\ \vdots \\ \theta_{n} \end{array}\right)~~~~~~X=\left[\begin{array}{cccc} x_{0}^{(1)} & x_{1}^{(1)} & \cdots & x_{n}^{(1)} \\ x_{0}^{(2)} & x_{1}^{(2)} & \cdots & x_{n}^{(2)} \\ \vdots & & &\vdots\\ x_{0}^{(m)} & x_{1}^{(m)} & \cdots & x_{n}^{(m)} \end{array}\right]_{m \times(n+1)} y ?=??????y(1)y(2)?y(m)??????????????θ=??????θ0?θ1??θn??????????????X=???????x0(1)?x0(2)??x0(m)??x1(1)?x1(2)?x1(m)??????xn(1)?xn(2)??xn(m)?????????m×(n+1)?

X θ = [ θ 0 x 0 ( 1 ) + θ 1 x 1 ( 1 ) + θ 2 x 2 ( 1 ) + ? + θ n x n ( 1 ) θ 0 x 0 ( 2 ) + θ 1 x 2 ( 2 ) + θ 2 x 2 ( 2 ) + ? + θ n x n ( 2 ) ? θ 0 x 0 ( m ) + θ 1 x 1 ( m ) + θ 2 x 2 ( m ) + ? + θ n x n ( m ) ] ??????????????????? g ( X θ ) = [ h θ ( x ( 1 ) ) h θ ( x ( 2 ) ) ? h θ ( x ( m ) ) ] X \theta=\left[\begin{array}{c} \theta_{0} x_{0}^{(1)}+\theta_{1} x_{1}^{(1)}+\theta_{2} x_{2}^{(1)}+\cdots+\theta_{n} x_{n}{ }^{(1)} \\ \theta_{0} x_{0}^{(2)}+\theta_{1} x_{2}^{(2)}+\theta_{2} x_{2}^{(2)}+\cdots+\theta_{n} x_{n}^{(2)} \\ \cdots \\ \theta_{0} x_{0}^{(m)}+\theta_{1} x_{1}^{(m)}+\theta_{2} x_{2}^{(m)}+\cdots+\theta_{n} x_{n}^{(m)} \end{array}\right]~~~~~~~~~~~~~~~~~~~ g(X \theta)=\left[\begin{array}{c} h_{\theta}\left(x^{(1)}\right) \\ h_{\theta}\left(x^{(2)}\right) \\ \cdots\\ h_\theta\left(x^{(m)}\right) \end{array}\right] Xθ=??????θ0?x0(1)?+θ1?x1(1)?+θ2?x2(1)?+?+θn?xn?(1)θ0?x0(2)?+θ1?x2(2)?+θ2?x2(2)?+?+θn?xn(2)??θ0?x0(m)?+θ1?x1(m)?+θ2?x2(m)?+?+θn?xn(m)???????????????????????????g(Xθ)=?????hθ?(x(1))hθ?(x(2))?hθ?(x(m))??????

详细向量化过程

∑ i = 1 m ( h θ ( x ( i ) ) ? y ( i ) ) x j ( i ) = [ h θ ( x ( 1 ) ) ? y ( 1 ) ] x j ( 1 ) + [ h θ ( x ( 2 ) ) ? y ( 2 ) ] x j ( 2 ) + ? + [ h θ ( x ( m ) ) ? y ( m ) ] x j ( m ) = ( x j ( 1 ) , x j ( 2 ) , ? ? , x j ( m ) ) ? ( h θ ( x ( 1 ) ) ? y ( 1 ) h θ ( x ( 2 ) ) ? y ( 2 ) ? h θ ( x ( m ) ) ? y ( m ) ) = ( x j ( 1 ) , x j ( 2 ) , ? ? , x j ( m ) ) ? [ ( h θ ( x ( 1 ) ) h θ ( x ( 2 ) ) ? h θ ( x ( m ) ) ) ? ( y ( 1 ) y ( 2 ) ? y ( m ) ) ] = x j ? [ g ( X θ ) ? y ? ] \begin{aligned} &\sum_{i=1}^{m}\left(h_{\theta}\left(x^{(i)}\right)-y^{(i)}\right) x_{j}^{(i)} \\\\ =&{\left[h_{\theta}\left(x^{(1)}\right)-y^{(1)}\right]x_{j}^{(1)}+\left[h_{\theta}\left(x^{(2)}\right)-y^{(2)}\right] x_{j}^{(2)}} +\cdots+\left[h_{\theta}\left(x^{(m)}\right)-y^{(m)}\right] x_{j}^{(m)} \\\\ = &\left(x_{j}^{(1)}, x_{j}^{(2)}, \cdots, x_{j}^{(m)}\right) \cdot\left(\begin{array}{c} h_{\theta}\left(x^{(1)}\right)-y^{(1)} \\ h_{\theta}\left(x^{(2)}\right)-y^{(2)} \\ \vdots \\ h_{\theta}\left(x^{(m)}\right)-y^{(m)} \end{array}\right) \\\\ =& \left(x_{j}^{(1)}, x_{j}^{(2)}, \cdots, x_{j}^{(m)}\right)\cdot\left[\left(\begin{array}{c} h_{\theta}\left(x^{(1)}\right) \\ h_{\theta}\left(x^{(2)}\right) \\ \vdots \\ h_{\theta}\left(x^{(m)}\right) \end{array}\right)-\left(\begin{array}{c} y^{(1)} \\ y^{(2)} \\ \vdots \\ y^{(m)} \end{array}\right)\right] \\\\ =& x_{j} \cdot[g(X \theta)-\vec{y}] \end{aligned} ====?i=1m?(hθ?(x(i))?y(i))xj(i)?[hθ?(x(1))?y(1)]xj(1)?+[hθ?(x(2))?y(2)]xj(2)?+?+[hθ?(x(m))?y(m)]xj(m)?(xj(1)?,xj(2)?,?,xj(m)?)???????hθ?(x(1))?y(1)hθ?(x(2))?y(2)?hθ?(x(m))?y(m)???????(xj(1)?,xj(2)?,?,xj(m)?)?????????????hθ?(x(1))hθ?(x(2))?hθ?(x(m))??????????????y(1)y(2)?y(m)?????????????xj??[g(Xθ)?y ?]?

则:
θ j : = θ j ? α m x j [ g ( X θ ) ? y ? ] \theta_{j}:=\theta_{j}-\frac{\alpha}{m}x_{j}[g(X \theta)-\vec{y}] θj?:=θj??mα?xj?[g(Xθ)?y ?]

[ θ 0 θ 1 ? θ n ] : = [ θ 0 θ 1 ? θ n ] ? α m [ x 0 x 1 ? x n ] [ g ( X θ ) ? y ? ] \left[\begin{array}{c} \theta_{0} \\ \theta_{1} \\ \vdots \\ \theta_{n} \end{array}\right]:=\left[\begin{array}{c} \theta_{0} \\ \theta_{1} \\ \vdots \\ \theta_{n} \end{array}\right]-\frac{\alpha}{m}\left[\begin{array}{c} x_{0} \\ x_{1} \\ \vdots \\ x_{n} \end{array}\right]\left[g\left(X\theta\right)-\vec{y}\right] ??????θ0?θ1??θn????????:=??????θ0?θ1??θn?????????mα???????x0?x1??xn????????[g(Xθ)?y ?]

最终得:

θ : = θ ? α m X T ( g ( X θ ) ? y ? ) \theta:=\theta-\frac{\alpha}{m} X^{T}(g(X \theta)-\vec{y}) θ:=θ?mα?XT(g(Xθ)?y ?)

  数据结构与算法 最新文章
【力扣106】 从中序与后续遍历序列构造二叉
leetcode 322 零钱兑换
哈希的应用:海量数据处理
动态规划|最短Hamilton路径
华为机试_HJ41 称砝码【中等】【menset】【
【C与数据结构】——寒假提高每日练习Day1
基础算法——堆排序
2023王道数据结构线性表--单链表课后习题部
LeetCode 之 反转链表的一部分
【题解】lintcode必刷50题<有效的括号序列
上一篇文章      下一篇文章      查看所有文章
加:2021-08-03 11:27:45  更:2021-08-03 11:29:30 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年5日历 -2024/5/11 0:20:05-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码