| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> Python知识库 -> 分享一下自己的pytorch DDP模型训练 -> 正文阅读 |
|
[Python知识库]分享一下自己的pytorch DDP模型训练 |
仅从代码入手,不讲DDP原理,网上看了一堆都讲的挺全面的了(自己还看不懂) 项目背景:pytorch1.8.1、python3.7、cuda11.1、Ubuntu 18.04、至少两张N卡 从单卡训练到DDP训练增加代码: 1.定义local_rank:卡的编号
2.设置卡间通讯方式
3.定义sampler
4.在每个epoch开始时,设置set_epoch(主要用作随机采样),dt_size整除2是因为我只有两张卡ORZ
5.包装模型
6.启动训练 nohup python -u -m torch.distributed.launch --nproc_per_node=2 --master_port=2345 main.py > ./test.log & 其中nproc_per_node为你的卡数量,master_port是可以随机设置的端口号 OK,大功告成! 如果要保存与读取模型:
顺便记录一下自己的疑问: 双卡训练的时候,每张卡都会输出loss、acc等参数,如下图: ?可是两张卡的验证iou都不相同,自己测试后发现卡1的精度总会比卡0的高一点; 那疑问就有: 1.是验证集采样不同导致的精度差异,还是此刻的两卡梯度并未同步? 2.在保存模型的时候使用 args.local_rank == 0 和?args.local_rank == 1 保存是否模型相同? 3.如果是梯度并未同步,有无显式同步方式? 坐等高手XD ? |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年12日历 | -2024/12/26 3:35:09- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |
数据统计 |