mmcv中dist_train.sh的一些命令的含义

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
CONFIG=$1
GPUS=$2
NNODES=${NNODES:-1}
NODE_RANK=${NODE_RANK:-0}
PORT=${PORT:-29500}
MASTER_ADDR=${MASTER_ADDR:-"127.0.0.1"}
 
PYTHONPATH="$(dirname $0)/..":$PYTHONPATH \
python -m torch.distributed.launch \
    --nnodes=$NNODES \
    --node_rank=$NODE_RANK \
    --master_addr=$MASTER_ADDR \
    --nproc_per_node=$GPUS \
    --master_port=$PORT \
    $(dirname "$0")/train.py \
    $CONFIG \
    --seed 0 \
    --launcher pytorch \
    ${@:3# 表示从第三个参数开始,也就是从$3开始,接收进来的参数会全部给train.py

 

训练模型的一个示例命令:

1
2
3
export PYTHONPATH=./
cd /mnt/data/wangpeng/flashocc
bash ./tools/dist_train_wangpeng.sh ./projects/configs/flashocc/flashocc-r50_wangpeng.py 2 --work-dir ../exp_results/flashocc/

  

 

posted @   Picassooo  阅读(59)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· Manus爆火,是硬核还是营销?
· 终于写完轮子一部分:tcp代理 了,记录一下
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 别再用vector<bool>了!Google高级工程师:这可能是STL最大的设计失误
· 单元测试从入门到精通
历史上的今天:
2019-12-04 逻辑回归(Logistic Regression)以及python实现
点击右上角即可分享
微信分享提示