复制&粘贴
Ctrl+Insert
Shift+Insert
一键激活环境
source activate
conda activate pytorch
?查看显卡属性
nvidia-smi
模型的显存及其参数量计算
模型的显存和参数量计算_哪来那么多热情^^的博客-CSDN博客_模型大小和参数量写在前面:以此记录关于模型显存和参数量的一些理解和计算。显存参数的显存占用:只有有参数的层,才会有显存占用。这部分的显存占用和输入无关,模型加载完成之后就会占用。有参数的层主要包括:卷积、全连接、BatchNorm、Embedding等等无参数的层主要包括:多数的激活层(Sigmoid/ReLU)、池化层、Dropout等等具体来说,模型参数数目(不考虑偏置b):Linear(M->N):M×NConv2d(Cin,Cout,K):Cin×Cout×k×kBatchNorm(N):2https://blog.csdn.net/weixin_49305813/article/details/119179849
加速
proxychains4
创建环境
source activate
conda create -n envname python=3.x
conda activate xxx
异常??CUDA error: out of memory
RuntimeError: CUDA error: out of memory的解决【实测成功】_captain飞虎大队的博客-CSDN博客仅作为记录,大佬请跳过。文章目录背景解决参考原因背景博主使用linux服务器运行MIL_train.py程序时,出现RuntimeError: CUDA error: out of memory的错误(之前运行这个python木有问题)解决在MIL_train.py文件里加入:import osos.environ["CUDA_VISIBLE_DEVICES"] = '1'即可。参考感谢大佬博主文章:传送门原因服务器的默认gpu显卡正在使用,需要使用gpu的另一个空闲的显卡;lihttps://blog.csdn.net/weixin_41529093/article/details/115144349添加这段代码
import os
os.environ['CUDA_VISIBLE_DEVICES'] = '1'
(1)os设置在torch之前
import os
os.environ['CUDA_VISIBLE_DEVICES'] = '1'
import torch
###########################################
(2)更换数据集,重新上传一下
创建文件夹
mkdir name
删除文件夹
rmdir name
删除
删除此文件夹内所有文件
rm -rf *
删除此文件夹内某文件
rm -rf name.xx
删除当前目录下的__pycache__
find?.?-name?'__pycache__'?-type?d?-exec?rm?-rf?{}?\;
上传到服务器
rz
查看显卡属性
nvidia-smi
执行代码
python name.py
|