Some useful tools for computer vision/deep learning.
将yolo格式数据集修改成coco格式。$ROOT_PATH
是根目录,需要按下面的形式组织数据:
└── $ROOT_PATH
├── classes.txt
├── images
└──labels
-
classes.txt
是类的声明,一行一类。 -
images
目录包含所有图片 (目前支持png
和jpg
格式数据) -
labels
目录包含所有标签(与图片同名的txt
格式数据)
配置好后,执行:python yolo2coco.py --root_dir $ROOT_PATH
,然后你就能看见生成的 annotations
文件夹。如果有添加--random_split
参数,则输出在annotations
文件夹下包含 train.json
val.json
test.json
(默认随机划分成8:1:1),如果不想划分数据集,则不要输入random_split
这个参数,然后指定--save_path(生成的json文件的名字,不指定默认保存为train.json
)
--root_path
输入根目录$ROOT_PATH
的位置。--random_split
为划分参数,如果没有这个参数则只保存train.json
文件--save_path
如果不进行随机划分,可利用此参数指定输出文件的名字,默认保存为train.json
读入coco数据集json格式的标注,输出可供yolo训练的标签。
需要注意的是,COCO2017官方的数据集中categories id 是不连续的,这在yolo读取的时候会出问题,所以需要重新映射一下,这个代码会按id从小到大映射到0~79之间。(如果是自己的数据集,也会重新映射)
执行:python coco2yolo.py --json_path $JSON_FILE_PATH --save_path $LABEL_SAVE_PATH
$JSON_FILE_PATH
是json文件的地址。$JSON_FILE_PATH
是输出目录(默认为工作目录下的./labels
目录。
执行:python yolo2coco.py --file_path $IMAGE_PATH --step $INTERVAL
- --file_path 输入图片地址。
- --step 可选,默认为1,选择图片的间隔,如间隔为10,则只计算1/10。
随机划分数据集(yolo数据格式的划分),按train:val:test = 8:1:1
保存。
执行:python split_dataset_yolo.py --root_path $ROOT_PATH
同时把GT和预测结果可视化在同一张图中。$DT_DIR
是预测结果标签地址,必须是和GT同名的标签。$ROOT_PATH
文件目录:
└── $ROOT_PATH
├── classes.txt
├── images
└── labels
执行:python vis_yolo_gt_dt.py --root $ROOT_PATH --dt $DT_DIR
后生成在outputs
文件夹中。
classes.txt
和images
必须有。labels
可以没有,那样就只展示$DT_DIR
预测结果。$DT_DIR
若没有输入,则只展示标签结果。
评估生成的结果,针对yolov5生成的检测结果(test中的--save-json
参数,会生成best_predictions.json
),但是这个不适应cocoapi,需要用脚本来修改适应。执行:
python coco_eval.py --gt $GT_PATH --dt $DT_PATH --yolov5
--gt
json格式,用于指定测试集的结果,如果没有,可以利用前面的yolo2coco.py
进行转换。--dt
同样检测网络生成的预测,使用cocoapi中loadRes
来加载,所以需要有相应格式的检测结果。--yolov5
将官方代码中生成的结果转换成适配cocoapi的结果。
左右拼接2个文件夹下同名的图片,方便可视化对比模型的效果。
- 网格化输出各个位置目标的分布情况。
- 依据条件提取特定区域的样本。
将旋转框的VOC标注转为COCO格式的。(范围为0~pi)