Python&Pytorch相关知识:
PyTorch之前向传播函数forward pytorch super 的用法 python中__call__: Callable、forward: Callable[…, Any] 讲解 torch.flatten()方法 【pytorch】named_parameters()和parameters() nn.init.kaiming_normal_
li = [0, 1, 2, 3, 4, 5, 6, 7, 8]
li[-1]=8
return_layers = {f'layer{k}': str(v) for v, k in enumerate(returned_layers)}
named_children( )、named_modules( )
name for name, _ in model.named_children()
DL相关基础知识
卷积神经网络(CNN):卷积层(Convolution)、非线性激活层(ReLU)、池化层(pooling) cnn卷积神经网络应用(卷积神经网络和神经网络) 机器学习评价指标 nn.BCELoss()、nn.BCEWithLogitsLoss()的理解与用法 池化层的反向传播 反向传播 正则化:为了避免过拟合 使得w权重参数不过大,维持 双边误差校验偏导数,如果误差在10的-3次方~10的-5次方,就可能存在Bug 优化器算法Optimizer详解(BGD、SGD、MBGD、Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam)
经典论文阅读:
fcn相关 fcn论文及代码解析 convtranspose2d resnet相关: pytorch官方实现的resnet 知乎手敲的resnet resnet官方代码讲解1 resnet官方代码讲解2 resnet官方代码讲解3 RCNN系列: 边框回归(Bounding Box Regression)详解 How does the bounding box regressor work in Fast R-CNN? github上的复现 知乎Faster-RCNN讲解1 知乎Faster-RCNN讲解2
其他:
局部最优解: resnet图解【忘记转自哪篇博客了~_^】:
|