faster_rcnn.py 3.5 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103
  1. #!/usr/bin/env python
  2. # 目标检测模型Faster R-CNN训练示例脚本
  3. # 执行此脚本前,请确认已正确安装PaddleRS库
  4. import os
  5. import paddlers as pdrs
  6. from paddlers import transforms as T
  7. # 下载文件存放目录
  8. DOWNLOAD_DIR = './data/sarship/'
  9. # 数据集存放目录
  10. DATA_DIR = './data/sarship/sar_ship_1/'
  11. # 训练集`file_list`文件路径
  12. TRAIN_FILE_LIST_PATH = './data/sarship/sar_ship_1/train.txt'
  13. # 验证集`file_list`文件路径
  14. EVAL_FILE_LIST_PATH = './data/sarship/sar_ship_1/valid.txt'
  15. # 数据集类别信息文件路径
  16. LABEL_LIST_PATH = './data/sarship/sar_ship_1/labels.txt'
  17. # 实验目录,保存输出的模型权重和结果
  18. EXP_DIR = './output/faster_rcnn/'
  19. # 下载和解压SAR影像舰船检测数据集
  20. sarship_dataset = 'https://paddleseg.bj.bcebos.com/dataset/sar_ship_1.tar.gz'
  21. if not os.path.exists(DATA_DIR):
  22. pdrs.utils.download_and_decompress(sarship_dataset, path=DOWNLOAD_DIR)
  23. # 定义训练和验证时使用的数据变换(数据增强、预处理等)
  24. # 使用Compose组合多种变换方式。Compose中包含的变换将按顺序串行执行
  25. # API说明:https://github.com/PaddlePaddle/PaddleRS/blob/develop/docs/apis/transforms.md
  26. train_transforms = T.Compose([
  27. # 读取影像
  28. T.DecodeImg(),
  29. # 对输入影像施加随机色彩扰动
  30. T.RandomDistort(),
  31. # 在影像边界进行随机padding
  32. T.RandomExpand(),
  33. # 随机裁剪,裁块大小在一定范围内变动
  34. T.RandomCrop(),
  35. # 随机水平翻转
  36. T.RandomHorizontalFlip(),
  37. # 对batch进行随机缩放,随机选择插值方式
  38. T.BatchRandomResize(
  39. target_sizes=[320, 352, 384, 416, 448, 480, 512, 544, 576, 608],
  40. interp='RANDOM'),
  41. # 影像归一化
  42. T.Normalize(
  43. mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]),
  44. T.ArrangeDetector('train')
  45. ])
  46. eval_transforms = T.Compose([
  47. T.DecodeImg(),
  48. # 使用双三次插值将输入影像缩放到固定大小
  49. T.Resize(
  50. target_size=608, interp='CUBIC'),
  51. # 验证阶段与训练阶段的归一化方式必须相同
  52. T.Normalize(
  53. mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]),
  54. T.ArrangeDetector('eval')
  55. ])
  56. # 分别构建训练和验证所用的数据集
  57. train_dataset = pdrs.datasets.VOCDetection(
  58. data_dir=DATA_DIR,
  59. file_list=TRAIN_FILE_LIST_PATH,
  60. label_list=LABEL_LIST_PATH,
  61. transforms=train_transforms,
  62. shuffle=True)
  63. eval_dataset = pdrs.datasets.VOCDetection(
  64. data_dir=DATA_DIR,
  65. file_list=EVAL_FILE_LIST_PATH,
  66. label_list=LABEL_LIST_PATH,
  67. transforms=eval_transforms,
  68. shuffle=False)
  69. # 构建Faster R-CNN模型
  70. # 目前已支持的模型请参考:https://github.com/PaddlePaddle/PaddleRS/blob/develop/docs/apis/model_zoo.md
  71. # 模型输入参数请参考:https://github.com/PaddlePaddle/PaddleRS/blob/develop/paddlers/tasks/object_detector.py
  72. model = pdrs.tasks.det.FasterRCNN(num_classes=len(train_dataset.labels))
  73. # 执行模型训练
  74. model.train(
  75. num_epochs=10,
  76. train_dataset=train_dataset,
  77. train_batch_size=4,
  78. eval_dataset=eval_dataset,
  79. # 每多少个epoch存储一次检查点
  80. save_interval_epochs=5,
  81. # 每多少次迭代记录一次日志
  82. log_interval_steps=4,
  83. save_dir=EXP_DIR,
  84. # 指定预训练权重
  85. pretrain_weights='COCO',
  86. # 初始学习率大小
  87. learning_rate=0.005,
  88. # 学习率预热(learning rate warm-up)步数与初始值
  89. warmup_steps=0,
  90. warmup_start_lr=0.0,
  91. # 是否启用VisualDL日志功能
  92. use_vdl=True)