1.python 运行程序出现:“Caught IndexError in DataLoader worker process 0”
解决方法:可能是多进程的原因。查看代码,找到超参数部分,修改num_workers=0即可。
2.卷积神经网络(卷积层,激活函数Relu,池化层,计算公式及API解释)
这位博主介绍的很详细,传送门
3.dim、keepdim
dim (int) – 缩减的维度,dim=0是对0维度上的一个向量求范数(范数定义:每个向量的长度或大小),返回结果数量等于其列的个数,也就是说有多少个0维度的向量, 将得到多少个范数。 keepdim(bool)– 保持输出的维度 。当keepdim=False时,输出比输入少一个维度(就是指定的dim求范数的维度)。 例子在:传送门
4.opt和args是谁的缩写
都指代超参数,不同代码称呼不一样,因此不是固定的。
opt = parser.parse_args()
args = parser.parse_args() #1.引用超参数 args.
5.torch.zeros用法
举例:
>>> torch.zeros(2, 3)
tensor([[ 0., 0., 0.],
[ 0., 0., 0.]])
6.gamma校正
gamma校正包括:归一化、预补偿、反归一化。 这篇把gamma校正原理解释的很完美传送门
7.beta分布概率密度函数
我理解的beta是,其获取bn分支偏移量,并且beta分布具有多样性。
beta = branch.bn.bias
如果想了解更多,大家可以去看这篇博客。传送门
8.eps是什么?
eps 定义:机器的浮点运算误差限 直接举例:如果我们计算出的数介于这两者之间,系统就会自动把它舍入到离他最近的数。如1+eps3/5≈1+eps;1+eps2/5≈1;1+eps/2≈1;
9.assert函数
assert就是一个断言函数。类似与break。 举例:
assert 1==1 # 条件为 true 正常执行
assert 1==2 # 条件为 false 触发异常
10.优化器
Momentum优化算法:使用梯度的移动指数加权平均,一般取0.9. RMSProp优化算法:使用微分平方加权平均数。 Adam优化算法:使用类似于物理中的动量来累积梯度。 具体内容见:传送门
11.python中group和groups函数的区别
group:获取取得的字符串整体。 groups:深度可分卷积计算。 groups的具体内容见:传送门
12.Python3中// 和/区别
" / "表示浮点数除法,返回浮点float结果; " // “表示整数除法,返回一个不大于” / "计算结果的最大整数int。
13.numpy.reshape(-1,1)含义
reshape(m,-1)即行数固定,列数需要计算,reshape(-1, m) 即列数固定,行数需要计算; 具体举例见:传送门
|