【目标检测】PyTorch版YOLOv4项目介绍

    科技2022-08-12  128

    文章原文出处

    https://mp.weixin.qq.com/s/3ItH0swoicI_gMmfkHHClQ.

    背景知识

    YOLO v4框架采用C语言作为底层代码。

    近日,有研究者在 GitHub 上开源了一个项目:基于 PyTorch 深度学习框架的 YOLOv4 复现版本,该版本基于 YOLOv4 作者给出的实现 AlexeyAB/darknet,并在 PASCAL VOC、COCO 和自定义数据集上运行。

    项目介绍

    项目地址: https://github.com/argusswift/YOLOv4-PyTorc

    除此以外,该项目还向主干网络添加了一些有用的注意力方法,并实现了 mobilenetv2-YOLOV4 和 mobilenetv3-YOLOV4。

    attention YOLOv4

    mobilenet YOLOv4

    该研究还实现了 mobilenetv2-YOLOV4 和 mobilenetv3-YOLOV4(只需更改 config/yolov4_config.py 中的 MODEL_TYPE 即可)。

    下表展示了 mobilenetv2-YOLOV4 的性能结果:

    项目的详细内容和要求

    环境要求
    Nvida GeForce RTX 2080TICUDA10.0CUDNN7.0windows 或 linux 系统python 3.6
    特性
    DO-Conv (https://arxiv.org/abs/2006.12030) (torch>=1.2)Attentionfp_16 trainingMishCustom dataData Augment (RandomHorizontalFlip, RandomCrop, RandomAffine, Resize)Multi-scale Training (320 to 640)focal lossCIOULabel smoothMixupcosine lr
    安装依赖性

    运行脚本安装依赖项。你需要提供 conda 安装路径(例如 ~/anaconda3)以及所创建 conda 环境的名称(此处为 YOLOv4-PyTorch)。

    pip3 install -r requirements.txt --user

    需要注意的是:安装脚本已在 Ubuntu 18.04 和 Window 10 系统上进行过测试。如果出现问题,请查看详细的安装说明:https://github.com/argusswift/YOLOv4-PyTorch/blob/master/INSTALL.md.

    准备工作
    git 复制 YOLOv4 库 # 复制 YOLOv4 git clone github.com/argusswift/YOLOv4-PyTorch.git

    然后更新配置文件 “config/yolov4_config.py” 中 “PROJECT_PATH” 。

    数据集准备 该项目准备了 Pascal VOC 和 MSCOCO 2017 数据集。其中 , 1)PascalVOC 数据集包括 VOC 2012_trainval、VOC 2007_trainval 和VOC2007_test, 2)MSCOCO 2017 数据集包括train2017_img、train2017_ann、val2017_img、val2017_ann、test2017_img、test2017_list。

    PascalVOC 数据集下载命令

    # Download the data.cd $HOME/data wget http://host.robots.ox.ac.uk/pascal/VOC/voc2012/VOCtrainval_11-May-2012.tar wget http://host.robots.ox.ac.uk/pascal/VOC/voc2007/VOCtrainval_06-Nov-2007.tar wget http://host.robots.ox.ac.uk/pascal/VOC/voc2007/VOCtest_06-Nov-2007.tar# Extract the data. tar -xvf VOCtrainval_11-May-2012.tar tar -xvf VOCtrainval_06-Nov-2007.tar tar -xvf VOCtest_06-Nov-2007.tar

    MSCOCO 2017 数据集下载命令:

    #step1: download the following data and annotation 2017 Train images [118K/18GB] 2017 Val images [5K/1GB] 2017 Test images [41K/6GB] 2017 Train/Val annotations [241MB] #step2: arrange the data to the following structure COCO ---train ---test ---val ---annotations

    在数据集下载好后,需要进行以下操作:

    1). 将数据集放入目录,更新 config/yolov4_config.py 中的 DATA_PATH 参数。 (对于 COCO 数据集)使用 coco_to_voc.py 将 COCO 数据类型转换为 VOC 数据类型。 2). 转换数据格式:使用 utils/voc.py 或 utils/coco.py 将 pascal voc *.xml 格式(或 COCO *.json 格式)转换为 *.txt 格式(Image_path xmin0,ymin0,xmax0,ymax0,class0 xmin1,ymin1,xmax1,ymax1,class1 …)。

    下载权重文件

    1)darknet 预训练权重: yolov4

    (https://drive.google.com/file/d/1cewMfusmPjYWbrnuJRuKhPMwRe_b9PaT/view)。 2)Mobilenet 预训练权重: mobilenetv2:

    (https://pan.baidu.com/share/init?surl=sjixK2L9L0YgQnvfDuVTJQ,提取码:args); mobilenetv3:

    (https://pan.baidu.com/share/init?surl=75wKejULuM0ZD05b9iSftg,提取码:args)。 3)在根目录下创建 weight 文件夹,将下载好的权重文件放到 weight / 目录下。 4)训练时在 config/yolov4_config.py 中设置 MODEL_TYPE。

    转换成自定义数据集(基于自定义数据集进行训练) 1)将自定义数据集的图片放入 JPEGImages 文件夹,将注释文件放入 Annotations 文件夹。 2)使用 xml_to_txt.py 文件将训练和测试文件列表写入 ImageSets/Main/*.txt。 3)转换数据格式:使用 utils/voc.py 或 utils/coco.py 将 pascal voc *.xml 格式(或 COCO *.json 格式)转换为 *.txt 格式(Image_path xmin0,ymin0,xmax0,ymax0,class0 xmin1,ymin1,xmax1,ymax1,class1 …)。
    训练

    运行以下命令开始训练,详情参见 config / yolov4_config.py。训练时应将 DATA_TYPE 设置为 VOC 或 COCO。

    CUDA_VISIBLE_DEVICES=0 nohup python -u train.py --weight_path weight/yolov4.weights --gpu_id 0 > nohup.log 2>&1 &

    它还支持 resume 训练,添加 --resume,使用以下命令即可自动加载 last.pt。

    CUDA_VISIBLE_DEVICES=0 nohup python -u train.py --weight_path weight/last.pt --gpu_id 0 > nohup.log 2>&1 &
    检测

    修改检测图像路径:DATA_TEST=/path/to/your/test_data# your own images。

    for VOC dataset: CUDA_VISIBLE_DEVICES=0 python3 eval_voc.py --weight_path weight/best.pt --gpu_id 0 --visiual $DATA_TEST --eval --mode det for COCO dataset: CUDA_VISIBLE_DEVICES=0 python3 eval_coco.py --weight_path weight/best.pt --gpu_id 0 --visiual $DATA_TEST --eval --mode det

    评估
    评估 VOC 修改评估数据集路径:DATA_PATH=/path/to/your/test_data # your own images for VOC dataset: CUDA_VISIBLE_DEVICES=0 python3 eval_voc.py --weight_path weight/best.pt --gpu_id 0 --visiual $DATA_TEST --eval -

    评估COCO 修改评估数据集路径:DATA_PATH=/path/to/your/test_data # your own images CUDA_VISIBLE_DEVICES=0 python3 eval_coco.py --weight_path weight/best.pt --gpu_id 0 --visiual $DATA_TEST --eval --mode val type=bbox Running per image evaluation... DONE (t=0.34s). Accumulating evaluation results... DONE (t=0.08s). Average Precision (AP) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.438 Average Precision (AP) @[ IoU=0.50 | area= all | maxDets=100 ] = 0.607 Average Precision (AP) @[ IoU=0.75 | area= all | maxDets=100 ] = 0.469 Average Precision (AP) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.253 Average Precision (AP) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.486 Average Precision (AP) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.567 Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 1 ] = 0.342 Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 10 ] = 0.571 Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.632 Average Recall (AR) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.458 Average Recall (AR) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.691 Average Recall (AR) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.790
    可视化热图

    在 val_voc.py 中设置 showatt=Ture,网络即可输出热图。

    for VOC dataset: CUDA_VISIBLE_DEVICES=0 python3 eval_voc.py --weight_path weight/best.pt --gpu_id 0 --visiual $DATA_TEST --eval for COCO dataset: CUDA_VISIBLE_DEVICES=0 python3 eval_coco.py --weight_path weight/best.pt --gpu_id 0 --visiual $DATA_TEST --eval

    在output/ 中可以查看热图

    完结。

    非原创,侵删。 原文出处: https://mp.weixin.qq.com/s/3ItH0swoicI_gMmfkHHClQ.

    Processed: 0.012, SQL: 8