IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 机器学习基础备忘录 -> 正文阅读

[人工智能]机器学习基础备忘录

本文侧重代码实现,不讨论原理。

github图床出了一点问题,就不插图了。

距离计算

:d(x,y)=k=1N(xk?yk)2 欧氏距离:d(x,y)=\sqrt{\sum_{k=1}^{N}(x_k-y_k)^2}

:d(x,y)=k=1Nxk?yk 曼哈顿距离:d(x,y)=\sum_{k=1}^N|x_k-y_k|

:d(x,y)=max?(xk?yk) 切比雪夫距离:d(x,y)=\max(|x_k-y_k|)

:cosθ=x1x2+y1y2x12+x22y12+y22 余弦距离:cos\theta=\frac{x_1x_2+y_1y_2}{\sqrt{x_1^2+x_2^2}\sqrt{y_1^2+y_2^2}}

import numpy as np

dot1 = np.array([1,2])  # 第一个点的坐标(1,2)
dot2 = np.array([4,5])  # 第二个点的坐标(4,5)

d1 = np.sqrt(np.sum((dot1-dot2)**2))  # 欧氏距离
d2 = np.sum(np.abs(dot1-dot2))  # 曼哈顿距离
d3 = np.max(np.abs(dot1-dot2))  # 切比雪夫距离
d4 = np.dot(dot1,dot2) / np.sqrt(np.dot(dot1,dot1)*np.dot(dot2,dot2))  # 余弦距离

模型选择

留出法

将数据分为训练集和测试集,使用训练集生成模型,使用测试集检验模型准确率。

# 核心代码
train_test_split(data,data_lable,test_size=0.6)
# 完整代码
from sklearn.model_selection import train_test_split
import numpy as np

data = np.array([10,21,23,53,63])  # 需要划分的数据
data_lable = [0,1,2,3,4]  # 上述数据的标签
"""
训练集数据, 测试集数据, 训练集标签, 测试集标签 = 
train_test_split(数据列表,数据列表标签,test_size=训练集/总数)
"""
data_train, data_test, lable_train, lable_test = train_test_split(data,data_lable,test_size=0.6)

交叉验证法

相当于多次train_test_split操作。将数据集划分为k个大小相似的子集,每次选取其中一个子集作为测试集,其他数据作为训练集。如[10,20,30,40],我们设k=4,则生成如下4种数据集:

训练集:[10,20,30],测试集:[40]
训练集:[10,20,40],测试集:[30]
训练集:[10,30,40],测试集:[20]
训练集:[20,30,40],测试集:[10]

代码如下:

# 核心代码
"""
将data数组分成3折 : KFold(n_splits=3).split(data)  
train_index:训练集索引  使用data[train_index]获取训练集
test_index:测试集索引  使用data[test_index]获取测试集
"""
for train_index, test_index in KFold(n_splits=3).split(data):
  ......
# 完整代码
import numpy as np
from sklearn.model_selection import KFold

data = np.array([10,21,23,53,63,25])  # 需要划分的数据

for train_index, test_index in KFold(n_splits=3).split(data):
    print("————————————————————————————————")
    print("训练集索引:",train_index,"训练集:",data[train_index])
    print("测试集索引:",test_index,"测试集:",data[test_index])
# 输出
————————————————————————————————
训练集索引: [2 3 4 5] 训练集: [23 53 63 25]
测试集索引: [0 1] 测试集: [10 21]
————————————————————————————————
训练集索引: [0 1 4 5] 训练集: [10 21 63 25]
测试集索引: [2 3] 测试集: [23 53]
————————————————————————————————
训练集索引: [0 1 2 3] 训练集: [10 21 23 53]
测试集索引: [4 5] 测试集: [63 25]

留一法

交叉验证的变种,每次只留一个数据作为测试集。例如有n个数需要被划分,则留一法就相当于k=n的交叉验证。

# 核心代码
for train_index, test_index in LeaveOneOut().split(data):
  ......
# 完整代码
from sklearn.model_selection import LeaveOneOut
import numpy as np

data = np.array([10,20,30,40])

for train_index, test_index in LeaveOneOut().split(data):
    print("————————————————————————————————")
    print("训练集索引:",train_index,"训练集:",data[train_index])
    print("测试集索引:",test_index,"测试集:",data[test_index])
# 输出
————————————————————————————————
训练集索引: [1 2 3] 训练集: [20 30 40]
测试集索引: [0] 测试集: [10]
————————————————————————————————
训练集索引: [0 2 3] 训练集: [10 30 40]
测试集索引: [1] 测试集: [20]
————————————————————————————————
训练集索引: [0 1 3] 训练集: [10 20 40]
测试集索引: [2] 测试集: [30]
————————————————————————————————
训练集索引: [0 1 2] 训练集: [10 20 30]
测试集索引: [3] 测试集: [40]

性能度量

均方误差MSE

MSE=1ni=1n(f(xi)?yi)2 MSE = \frac{1}{n}\sum_{i=1}^{n}(f(x_i)-y_i)^2

实现如下:

# 核心代码
"""
均方误差 = mean_squared_error(真值列表,预测值列表)
"""
result = mean_squared_error(y_true, y_pred)   
import numpy as np                            
from sklearn.metrics import mean_squared_error
                                              
y_true = np.array([1, 2, 3, 4, 5, 6])  # 正确数据 
y_pred = np.array([0, 2, 2, 4, 5, 7])  # 预测数据 
                                              
result = mean_squared_error(y_true, y_pred)
# result结果为0.5

均方根误差RMSE

RMSE=1ni=1n(f(xi)?yi)2 RMSE = \sqrt{\frac{1}{n}\sum_{i=1}^{n}(f(x_i)-y_i)^2}

# 实现(MSE套一层根号即可)
result = np.sqrt( mean_squared_error(y_true, y_pred) )

平均绝对误差MAE

MAE=1ni=1mf(xi)?yi MAE = \frac{1}{n}\sum_{i=1}^{m}|f(x_i)-y_i|

实现起来非常简单,就是将MSE中的mean_squared_error替换成mean_absolute_error

# 实现
import numpy as np                            
from sklearn.metrics import mean_absolute_erro
                                              
y_true = np.array([1, 2, 3, 4, 5, 6])  # 正确数据 
y_pred = np.array([0, 2, 2, 4, 5, 7])  # 预测数据 
                                              
result = mean_absolute_error(y_true, y_pred)  

准确率

预测对的 / 所有
acc=1ni=1n(f(xi)=yi) acc=\frac{1}{n}\sum_{i=1}^{n}(f(x_i)=y_i)

# 核心代码
"""
准确率 = accuracy_score(正确数据列表,预测数据列表)   
"""
result = accuracy_score(y_true,y_pred)    
# 完整代码
import numpy as np                         
from sklearn.metrics import accuracy_score 
                                           
y_true = np.array([1, 2, 3, 4, 5, 6])  # 正确
y_pred = np.array([0, 2, 2, 4, 5, 7])  # 预测
                                           
result = accuracy_score(y_true,y_pred)     

混淆矩阵

真实情况\预测结果 正例 反例
正例 TP(真正例) FN(假反例)
反例 FP(假正例) TN(真反例)
  • 查准率:预测为正中,预测正确的概率
    P=TPTP+FP P=\frac{TP}{TP+FP}

  • 查全率:真实情况为正中,预测正确的概率
    R=TPTP+FN R = \frac{TP}{TP+FN}

  • 准确率
    ACC=TP+TNTP+FP+TN+FN ACC = \frac{TP+TN}{TP+FP+TN+FN}

通过生成真实数据与预测数据的混淆矩阵,可以更好的看出预测的情况。

# 核心代码
"""
混淆矩阵 = confusion_matrix(真实数据集,预测数据集,labels=标签集) 
此处的标签集不好理解,看下面的样例就懂了
"""
result = confusion_matrix(y_true,y_pred,labels=[0,1])   
# 完整代码
import numpy as np                                         
from sklearn.metrics import confusion_matrix               
                                                           
y_pred = np.array([0, 1, 0, 1])  # 预测数据                       
y_true = np.array([1, 0, 1, 1])  # 正确数据                       
                                                           
result = confusion_matrix(y_true,y_pred,labels=[0,1])      
# 输出
[[0 1]
 [2 1]]

上述输出可以用如下表格来解释

此处假设0为正例,1为反例

真实情况\预测结果 0 1
0 0 1
1 2 1

以上表格蕴含了以下信息:

真实情况 预测结果 预测次数 结果
0 0 0 真正例TP = 0
0 1 1 假反例FN = 1,预测错误1次
1 0 2 假正例FP = 2,预测错误2次
1 1 1 真反例TN = 1,预测成功1次

=TPTP+FP=00+2=0 查准率 = \frac{TP}{TP+FP}=\frac{0}{0+2}=0

=TPTP+FN=00+1=0 查全率 = \frac{TP}{TP+FN}=\frac{0}{0+1}=0

=TP+TNTP+FP+TN+FN=0+10+2+1+1=14 准确率=\frac{TP+TN}{TP+FP+TN+FN}=\frac{0+1}{0+2+1+1} = \frac{1}{4}

实际上,sklearn也提供了直接计算查准率的函数precision_score

# 查准率
import numpy as np
from sklearn.metrics import precision_score

y_pred = np.array([0, 1, 0, 1])  # 预测数据
y_true = np.array([1, 0, 1, 1])  # 正确数据

accu = precision_score(y_true,y_pred,average='macro')
# accu结果为0.25

ROC曲线

真实情况\预测结果 正例 反例
正例 TP(真正例) FN(假反例)
反例 FP(假正例) TN(真反例)

ROC线Xfpr=FPFP+TN= ROC曲线X轴:fpr=\frac{FP}{FP+TN}=\frac{真实情况中:反例预测错误的}{真实情况中:反例总和}

ROC线Ytpr()=TPTP+FN= ROC曲线Y轴:tpr(查全率)=\frac{TP}{TP+FN}=\frac{真实情况中:正例中预测正确的}{真实情况中:正例总和}

在ROC曲线中,AUC(曲线下的面积)值越大,说明该模型性能越好。

# 核心代码
"""
x轴列表, y轴列表, _ = roc_curve(真实数据,预测数据)
曲线下面积 = auc(x轴列表, y轴列表)
"""
fpr_x, tpr_y, _ = roc_curve(y_true, y_pred)  # 生成ROC曲线的x、y值列表
auc = auc(fpr_x, tpr_y)  # 计算曲线下的面积
# 完整代码
import numpy as np
from sklearn.metrics import roc_curve, auc

y_pred = np.array([0.1, 0.8, 0.2, 0.5, 0.5, 0.7, 0.3, 0.1])  # 预测数据
y_true = np.array([0, 1, 0, 1, 1, 1, 0, 1])  # 正确数据

fpr_x, tpr_y, _ = roc_curve(y_true, y_pred)  # 生成ROC曲线的x、y值列表
auc = auc(fpr_x, tpr_y)  # 计算曲线下的面积
# auc结果为0.8333333333333334

协方差Cov

Cov(X,Y)=i=1n(xi?x)(yi?y)n?1 Cov(X,Y)=\frac{\sum_{i=1}^{n}(x_i-\overline{x})(y_i-\overline{y})}{n-1}

通过一个实例来计算:

  1. 为方便计算,我们只定义两个点,每个点(样本)有两个特征:x与y

dot1=(1,3)dot2=(5,7)(n=2) dot_1 = (1,3)\\dot_2=(5,7)\\(n=2)

  1. 用两个变量空间x,y分别表示特征对应的向量
    x=[15],y=[37] x=\begin{bmatrix} 1\\5 \end{bmatrix} , y=\begin{bmatrix} 3\\7 \end{bmatrix}

  2. 计算特征的均值
    x=3,y=5 \overline{x}=3,\overline{y}=5

  3. 计算协方差
    Cov(x,x)=(1?3)2+(5?3)22?1=8Cov(x,y)=(1?3)(3?5)+(5?3)(7?5)2?1=8Cov(y,x)=Cov(x,y)=8Cov(y,y)=(3?5)2+(7?5)22?1=8 Cov(x,x) = \frac{(1-3)^2+(5-3)^2}{2-1}=8\\ Cov(x,y) = \frac{(1-3)(3-5)+(5-3)(7-5)}{2-1}=8\\ Cov(y,x)=Cov(x,y)=8\\ Cov(y,y) = \frac{(3-5)^2+(7-5)^2}{2-1}=8

  4. 生成协方差矩阵
    Cov(z)=[Cov(x,x)Cov(x,y)Cov(y,x)Cov(y,y)]=[8888] Cov(z)= \begin{bmatrix} Cov(x,x) & Cov(x,y)\\ Cov(y,x) & Cov(y,y) \end{bmatrix} = \begin{bmatrix} 8 & 8\\ 8 & 8 \end{bmatrix}

下面用代码实现上述过程:

import numpy as np
x = np.array([1,5])
y = np.array([3,7])
z = np.stack([x,y])  # z=[[1,5],[3,7]]
result = np.cov(z)  # 生成协方差矩阵
result的值
[[8. 8.]
 [8. 8.]]

意义:协方差用来描述X和Y的相关程度

值范围 意义
Cov( X , Y ) < 0 X与Y负相关
Cov( X , Y ) > 0 X与Y正相关
Cov( X , Y ) = 0 X与Y不相关

Sklearn线性模型

线性回归

给一些点(xi,yi),用线性回归找出一条线y=wx+b,该线能够最大程度的与点拟合。

通过这条回归线,我们能根据xi预测出yi的大概值。代码实现如下:

# 核心代码
model = LinearRegression()  # 定义线性模型
model.fit(x, y)  # 根据(x,y)点集生成线性模型
x_test = [[4], [5], [6]]  # 测试数据
y_test = model.predict(x_test)  # 模型预测结果
# 完整代码
import numpy as np
from sklearn.linear_model import LinearRegression

# 准备自变量与因变量
# 这部分不用看,只知道生成了(x,y)散点即可
x = np.array([0, 1, 2, 3, 4])  # 自变量x
y = 3 * x + 2  # 因变量y: [ 2  5  8 11 14]
x = x + np.random.rand(5)  # 将点用随机数打乱
x = [[i] for i in x]  # 行变列,如[1,2,3]会变成[[1],[2],[3]]
y = [[i] for i in y]  # 行变列,这是sklearn包要求的格式

# 建立线性模型
model = LinearRegression()  # 定义线性模型
model.fit(x, y)  # 根据(x,y)点集生成线性模型

# 准备测试数据
x_test = [[4], [5], [6]]

# 打印预测结果
y_test = model.predict(x_test)
print(y_test)
print("w值:", model.coef_)
print("b截距值为:", model.intercept_)
# 输出
[[12.79914287]
 [15.74000827]
 [18.68087368]]
w值: [[2.9408654]]
b截距值为: [1.03568125]

上述代码生成了以下线性模型
y=wx+b=2.9408654x+1.03568125 y=wx+b=2.9408654x+1.03568125
将测试数据x代入该公式即可得到预测值y。

后面的pytorch部分将会通过梯度下降的方法来生成线性模型。

逻辑回归

以鸢尾花数据集为例。与上述线性回归极其相似,因此不作过多解释。

# 完整代码
from sklearn import datasets
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score

# 获取数据集
iris = datasets.load_iris()
iris_x = iris.data
iris_y = iris.target
# 留出法划分数据集
x_train, x_test, y_train, y_test = train_test_split(iris_x, iris_y, test_size=0.1)
# 生成逻辑回归模型
model = LogisticRegression()
model.fit(x_train, y_train)
# 检验模型
y_pred = model.predict(x_test)
accu = accuracy_score(y_test, y_pred)

Pytorch简介

偏导数计算

计算 y=(x+w)(w+1)y=(x+w)(w+1)xx的偏导数,公式可以分解为下图:

1
y
*
a
b
+
x
w
+
w

用pytorch构建上述公式,可以很容易的求出偏导数,代码如下:

import torch

# 生成公式 y=(x+w)*(w+1)
x = torch.tensor([2.0], requires_grad=True)  # 求x的偏导数,必须使requires_grad=True,否则报错
w = torch.tensor([1.0])
a = torch.add(x, w)  # a = x+w
b = torch.add(w, 1)  # b = w+1
y = torch.mul(a, b)  # y = a*b
# 反向传播,计算所有requires_grad=True张量(tensor)的导数
y.backward()
print(x.grad)  # x的偏导数
# 结果
tensor([2.])

多次求导

backward(retain_graph=True)可以保留计算图,再调用一次backward()即可实现二阶求导。代码修改如下:

# 核心代码
y.backward(retain_graph=True)  # 计算保留图,用于二次求导
print(x.grad)  # x的一阶导
y.backward()  # 二次求导
print(x.grad)  # x的二阶导
# 完整代码
import torch

# 构建公式 y=(x+w)*(w+1)
x = torch.tensor([2.0], requires_grad=True)  # 求x的偏导数,必须使requires_grad=True,否则报错
w = torch.tensor([1.0])
a = torch.add(x, w)  # a = x+w
b = torch.add(w, 1)  # b = w+1
y = torch.mul(a, b)  # y = a*b
# 反向传播,计算所有requires_grad=True的导数
y.backward(retain_graph=True)  # 计算保留图,用于二次求导
print(x.grad)  # x的一阶导
y.backward()
print(x.grad)  # x的二阶导

非标量输出

使用torch.cat()函数我们可以将不同的函数结合到一起,实现下图计算:

y0=(x+w)(w+3)
?(y0)/?w = 7
?loss/?w = ?(y0)/?w * 1 + ?(y1)/?w * 2
= 7 * 1 + 2 * 2 = 11
y1=(x+w)+(w+3)
?(y1)/?w = 2

代码实现如下

# 核心代码
loss = torch.cat([y0, y1], dim=0)  # dim=0代表横向拼接
loss_w = torch.tensor([1., 2.])  # 设置权重,y0为1,y1为2
loss.backward(gradient=loss_w)  # 反向传播
# 完整代码
import torch
# 构建两个公式
w = torch.tensor([1.], requires_grad=True)
x = torch.tensor([2.], )
a = torch.add(w, x)
b = torch.add(w, 3)
y0 = torch.mul(a, b)  # y0 = (x+w)(w+3)
y1 = torch.add(a, b)  # y1 = (x+w)+(w+3)
# 合并公式
loss = torch.cat([y0, y1], dim=0)  # dim=0代表横向拼接
loss_w = torch.tensor([1., 2.])  # 设置权重,y0为1,y1为2
loss.backward(gradient=loss_w)  # 反向传播
print(w.grad)  # w的偏导数
# 输出
tensor([11.])

线性回归

问题:给定若干(x,y)点集,找出一条直线y=wx+by=wx+b,使所有点到直线的距离之和最小。

目标:找到合适的wwbb,使损失函数 L=1Ni=1N(wxi+b?ytrue)2L=\frac{1}{N}\sum_{i=1}^{N}(wx_i+b-y_{true})^2 的值最小。

方法:我们需要对损失函数关于wwbb求导:?L?w\frac{\partial{L}}{\partial{w}},?L?b\frac{\partial{L}}{\partial{b}},然后使用公式
wt+1=wt?μ?L?wbt+1=bt?μ?L?b(μ:) w_{t+1}=w_t-\mu\frac{\partial{L}}{\partial{w}} \\ b_{t+1}=b_t-\mu\frac{\partial{L}}{\partial{b}} \\(\mu:学习率,梯度下降的跨度)
不断调整wwbb的值,直到得到合适的线性模型。

import matplotlib.pyplot as plt
import torch

# 准备自变量与因变量
# 这部分不用看,只知道生成了(x,y)散点即可
x = torch.rand(20, 1) * 10  # [20*1]的0-1的随机数 * 10
y = 2 * x + (5 + torch.randn(20, 1))  # y = 2x + 5
# 学习率
mu = 0.05  
# 构建线性回归参数 y_pred = wx + b
w = torch.tensor(5.0, requires_grad=True)  # 初始化w
b = torch.tensor(10.0, requires_grad=True)  # 初始化b
# 迭代训练1000次
for i in range(1000):
    """向前传播,计算预测值 y_pred = wx + b"""
    wx = torch.mul(w, x)  # wx = w * x
    y_pred = torch.add(wx, b)  # y_pred = w * x + b
    # 计算MSE loss
    # 目的是为了使loss尽可能小
    loss = (0.5 * (y - y_pred) ** 2).mean()
    # 反向传播,求b与w的偏导数
    loss.backward()
    # 更新参数
    # 此处等同于 w = w.sub(w,lr*w.grad)
    # 后面带下划线的都是in-place的,会将调用者改变
    w.data.sub_(mu * w.grad)  # 调整w的值
    b.data.sub_(mu * b.grad)  # 调整b的值
    # 更新参数后一定要清零梯度
    if i != 999:
        w.grad.zero_()
        b.grad.zero_()
    # 每隔50次循环输出一次图像
    if i % 50 == 0:
        plt.scatter(x.data.numpy(), y.data.numpy())  # 散点
        plt.plot(x.data.numpy(), y_pred.data.numpy())  # 回归直线
        plt.show()

SVM

基本原理

SVM的原理非常复杂,博主的水平不足以理解透彻并输出为文章,因此引用一位大佬的教程(是我见过写的最棒的,强推)

SVM原理:https://cloud.tencent.com/developer/article/1618598

重要公式

  • 支持向量样本点到决策面方程的距离(上述文章中公式2.12)
    d=wTxi+γw=1w(xi) d=\frac{|w^Tx_i+\gamma|}{||w||}=\frac{1}{||w||},(x_i为支持向量)

  • 线性SVM最优化问题的数学描述(2.14)
    minw,γ12w2s.t.yi(wTxi+γ)1,i=1,2,...,m min_{w,\gamma}\frac{1}{2}||w||^2\\ s.t. y_i(w^Tx_i+\gamma)\ge1, i=1,2,...,m

代码实现

原理虽然不好理解,但是代码实现起来却非常非常简单。

import numpy as np
from sklearn.svm import SVC

x = np.array([[-1, -1], [-2, -1], [1, 1], [2, 1]])  # 自变量
y = np.array([1, 1, 2, 2])  # 因变量
model = SVC()  # 定义模型
model.fit(x, y)  # 根据数据训练模型
pred = model.predict([[-0.8, -1]])  # 预测x=[-0.8,-1]的结果
print(pred)  # 输出y=[1]

指定核函数

通过调整SVC()函数中的kernel属性可以切换所使用的核函数。

下面我们通过不同的核函数来解决经典的鸢尾花分类问题。

# 核心代码
clf_rbf = SVC(kernel='rbf')
clf_linear = SVC(kernel='linear')
clf_poly = SVC(kernel='poly')
# 完整代码
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn.svm import SVC
# 导入数据
iris = datasets.load_iris()
x = iris.data  # 自变量
y = iris.target  # 因变量
x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.3)  # 留出法划分数据集

# kernel(核函数) = 'rbf'
clf_rbf = SVC(kernel='rbf')
clf_rbf.fit(x_train, y_train)
score_rbf = clf_rbf.score(x_test, y_test)  # 返回给定测试数据和标签的平均准确度
print("rbf准确率 : %f" % score_rbf)

# kernel = 'linear'
clf_linear = SVC(kernel='linear')
clf_linear.fit(x_train, y_train)
score_linear = clf_linear.score(x_test, y_test)
print("linear准确率 :  %f" % score_linear)

# kernel = 'poly'
clf_poly = SVC(kernel='poly')
clf_poly.fit(x_train, y_train)
score_poly = clf_poly.score(x_test, y_test)
print("poly准确率 : %f" % score_poly)
# 输出
rbf准确率 : 0.977778
linear准确率 :  1.000000
poly准确率 : 0.977778
  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-06-06 17:19:25  更:2022-06-06 17:20:43 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/26 2:52:18-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码