IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 数据结构与算法 -> Day 56:逻辑回归 -> 正文阅读

[数据结构与算法]Day 56:逻辑回归

2021/07/26

逻辑回归

逻辑回归是一个分类算法,仅适用于二分类 并且还能得出概率。而且是以线性回归的式子作为输入的分类算法。
我打个比方说网站上的广告,用户可以选择点击广告和不点击广告。这是一个二分类问题,更厉害的是逻辑回归可以预测出,用户会有多少几率去点击 (或者理解为有百分之多少的用户会点击广告)。这样网站也就能通过逻辑回归提前预测出上广告会有多少收益。
在这里插入图片描述
在这里插入图片描述
上图就是Sigmoid函数。通俗来讲 0.5是一个阈值,Sigmoid函数结果只能是0到1之间(也对应了概率中的几率大小),对于结果小于0.5的数 逻辑回归就按0处理;对于结果大于0.5的数,逻辑回归就按1处理。

逻辑回归的损失函数

逻辑回归的损失函数和线性回归的原理相同,但是由于是分类问题,所以损失函数稍微不一样。用的是对数似然损失函数
在这里插入图片描述
h(x)指的是概率,log(h(x))有点前面提过 信息熵的感觉
如下图,如果y= 1,目标值为1.的意思是:如果预测的结果是1类 概率h(x)为0.7,那么损失值就是图线靠右的那个点,损失值也相对较小
在这里插入图片描述
如果y=0,就和y=1的图相反如下图。 目标值为0. 那么预测结果为0类 概率h(x)同样为0.7,那么损失值的点也在靠右边,损失值会相对的变大
在这里插入图片描述
上面说的对数似然损失函数只是一个样本得出的结果,如果一个模型的的损失函数就得看下面这个公式:
在这里插入图片描述
举个栗子吧:
[样本1,样本2,样本3,样本4]实际结果是[1,0,0,1]
经过逻辑回归属于1的概率是[0.65, 0.12,0.55,0.78]
使用完整损失函数四个损失值相加为1log(0.65)+0log(0.12)+0log(0.55)+1log(0.78)
这块有点和信息熵相似 带有log()。数字越大,一个是误差就越大,一个信息熵越大。

损失函数

目前学到了两种损失函数

  • 一个是均方误差(直接找到误差最小的一个点)
  • 一个是对数似然损失函数,有多个局部最小值,用梯度下降优化。对于有多个局部最小值只能通过1.多次初始化,比较最小值。2调整梯度下降的学习率,比较找到最小值。
    在这里插入图片描述

逻辑回归API

sklearn.linear_model.LogisticRegression(penalty='l2',C=1.0)
penalty='l2’正则化
C 也是一种正则化力度,和岭回归一样能很好的解决过拟合问题
只能解决二分类问题,比如:

  • 广告点击率
  • 是否为垃圾邮件
  • 是否患病
  • 是否为金融诈骗
  • 是否为虚假账号

案例:癌症肿瘤预测

数据地址是 https://archive.ics.uci.edu/ml/machine-learning-databases/breast-cancer-wisconsin/breast-cancer-wisconsin.data

在这里插入图片描述
数据的内容如上图。在逻辑回归中,哪个占比少就把哪个当做目标值,比如这个案例中恶性少 ,逻辑回归就会把恶性为正例,反之良性为反例。
案例主要流程和思路

  1. 网上获取数据
  2. 对数据缺失值做处理,进行标准化
  3. 逻辑回归流程
from sklearn.linear_model import LinearRegression, SGDRegressor,  Ridge, LogisticRegression
from sklearn.metrics import  classification_report
import pandas as pd
import numpy as np


def logistic():
    """
    逻辑回归做二分类进行癌症预测(根据细胞的属性特征)
    :return: NOne
    """
    # 构造列标签名字
    column = ['Sample code number','Clump Thickness', 'Uniformity of Cell Size','Uniformity of Cell Shape','Marginal Adhesion', 'Single Epithelial Cell Size','Bare Nuclei','Bland Chromatin','Normal Nucleoli','Mitoses','Class']

    # 读取数据
    data = pd.read_csv("https://archive.ics.uci.edu/ml/machine-learning-databases/breast-cancer-wisconsin/breast-cancer-wisconsin.data", names=column)

    print(data)

    # 缺失值进行处理
    data = data.replace(to_replace='?', value=np.nan)

    data = data.dropna()

    # 进行数据的分割
    x_train, x_test, y_train, y_test = train_test_split(data[column[1:10]], data[column[10]], test_size=0.25)

    # 进行标准化处理
    std = StandardScaler()

    x_train = std.fit_transform(x_train)
    x_test = std.transform(x_test)

    # 逻辑回归预测
    lg = LogisticRegression(C=1.0)

    lg.fit(x_train, y_train)

    print(lg.coef_)

    y_predict = lg.predict(x_test)

    print("准确率:", lg.score(x_test, y_test))

    print("召回率:", classification_report(y_test, y_predict, labels=[2, 4], target_names=["良性", "恶性"]))

    return None


if __name__ == "__main__":
    logistic()

对于癌症问题,关注的是召回率而不是精确率。所以还要引入 classification_report 查看召回率

  数据结构与算法 最新文章
【力扣106】 从中序与后续遍历序列构造二叉
leetcode 322 零钱兑换
哈希的应用:海量数据处理
动态规划|最短Hamilton路径
华为机试_HJ41 称砝码【中等】【menset】【
【C与数据结构】——寒假提高每日练习Day1
基础算法——堆排序
2023王道数据结构线性表--单链表课后习题部
LeetCode 之 反转链表的一部分
【题解】lintcode必刷50题<有效的括号序列
上一篇文章      下一篇文章      查看所有文章
加:2021-07-27 16:29:50  更:2021-07-27 16:31:42 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/25 17:31:22-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码