本仓库为将[C2Former](yuanmaoxun/C2Former: Calibrated and Complementary Transformer for RGB-Infrared Object Detection)迁移到[MMDetection](open-mmlab/mmdetection: OpenMMLab Detection Toolbox and Benchmark)上的非官方实现,主要基于Cascade R-CNN和M3FD数据集。如有错误欢迎指正。
注:BDLfusion请参考LiuZhu-CV/BDLFusion: Bi-level Dynamic Learning for Jointly Multi-modality Image Fusion and Beyond (IJCAI 23)
提取码:dgpp
参照MMdetection2.28.2,由于从MMrotate迁移过来,mmdet为2.28版本,注意不是最新版!
M3FD原始数据集 百度云
VOC格式M3FD数据集 百度云
使用C2Former的预训练权重,将pretrain_weights文件夹放在项目路径下即可: https://github.com/yuanmaoxun/C2Former/tree/main/pretrain_weights
已经重写训练/测试/推理方法,均支持双模态输入输出:
- 输入:参考提供的VOC数据集图片组织方式;图像对上进行推理,参考/tools/infer_paired.py
- 输出:test.py --show-dir指定路径后,会输出具有检测框标注的两种模态图片,用后缀名区分("*.png"和"*_tir.png");infer_paired.py同理。
python tools/train.py configs/cascade_rcnn/cascade_rcnn_c2former_fpn_1x_m3fd.py --work-dir work_dirs/cascade_rcnn_c2former_fpn_1x_m3fdpython tools/test.py configs/cascade_rcnn/cascade_rcnn_c2former_fpn_1x_m3fd.py work_dirs/cascade_rcnn_c2former_fpn_1x_m3fd/latest.pth --eval mAP
# 可选:
# --show
# --show-dir work_dirs/result_vispython tools/infer_paired.py数据集组织格式以及evaluation metrics为Pascal VOC格式,可见光和红外光图片放在同一文件夹/JPEGImages下,以后缀名"*.png"和"*_tir.png"区分。由于M3FD两种模态的标注没有区分,故/Annotations文件夹中的标注以及/ImageSets/Main文件夹中的训练集验证集划分不用做模态层面的区分。如需复现,请直接使用VOC格式数据集。
其它注意事项,例如对于多模态的输入和mmdet中detector的代码层面修改等,有空会再后续补充。建议仔细对比MMDetection原始项目和参照官方文档。
issue没有及时回复的可以戳我主页邮件沟通



