train_cd.py 3.4 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111
  1. #!/usr/bin/env bash
  2. import os.path as osp
  3. import paddle
  4. import paddlers as pdrs
  5. from paddlers import transforms as T
  6. from custom_model import CustomModel
  7. from custom_trainer import make_trainer
  8. # 数据集路径
  9. DATA_DIR = 'data/levircd/'
  10. # 保存实验结果的路径
  11. EXP_DIR = 'exp/levircd/custom_model/'
  12. # 定义训练和验证时使用的数据变换(数据增强、预处理等)
  13. # 使用Compose组合多种变换方式。Compose中包含的变换将按顺序串行执行
  14. # API说明:https://github.com/PaddlePaddle/PaddleRS/blob/develop/docs/apis/data.md
  15. train_transforms = T.Compose([
  16. # 读取影像
  17. T.DecodeImg(),
  18. # 随机翻转和旋转
  19. T.RandomFlipOrRotate(
  20. # 以0.35的概率执行随机翻转,0.35的概率执行随机旋转
  21. probs=[0.35, 0.35],
  22. # 以0.5的概率执行随机水平翻转,0.5的概率执行随机垂直翻转
  23. probsf=[0.5, 0.5, 0, 0, 0],
  24. # 分别以0.33、0.34和0.33的概率执行90°、180°和270°旋转
  25. probsr=[0.33, 0.34, 0.33]),
  26. # 将数据归一化到[-1,1]
  27. T.Normalize(
  28. mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5]),
  29. T.ArrangeChangeDetector('train')
  30. ])
  31. eval_transforms = T.Compose([
  32. T.DecodeImg(),
  33. # 验证阶段与训练阶段的数据归一化方式必须相同
  34. T.Normalize(
  35. mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5]),
  36. T.ArrangeChangeDetector('eval')
  37. ])
  38. # 分别构建训练、验证和测试所用的数据集
  39. train_dataset = pdrs.datasets.CDDataset(
  40. data_dir=DATA_DIR,
  41. file_list=osp.join(DATA_DIR, 'train.txt'),
  42. label_list=None,
  43. transforms=train_transforms,
  44. num_workers=0,
  45. shuffle=True,
  46. with_seg_labels=False,
  47. binarize_labels=True)
  48. val_dataset = pdrs.datasets.CDDataset(
  49. data_dir=DATA_DIR,
  50. file_list=osp.join(DATA_DIR, 'val.txt'),
  51. label_list=None,
  52. transforms=eval_transforms,
  53. num_workers=0,
  54. shuffle=False,
  55. with_seg_labels=False,
  56. binarize_labels=True)
  57. test_dataset = pdrs.datasets.CDDataset(
  58. data_dir=DATA_DIR,
  59. file_list=osp.join(DATA_DIR, 'test.txt'),
  60. label_list=None,
  61. # 与验证阶段使用相同的数据变换算子
  62. transforms=eval_transforms,
  63. num_workers=0,
  64. shuffle=False,
  65. with_seg_labels=False,
  66. binarize_labels=True)
  67. # 构建自定义模型CustomModel并为其自动生成训练器
  68. # make_trainer()的首个参数为模型类型,剩余参数为模型构造所需参数
  69. model = make_trainer(CustomModel, in_channels=3)
  70. # 构建学习率调度器
  71. # 使用定步长学习率衰减策略
  72. lr_scheduler = paddle.optimizer.lr.StepDecay(
  73. learning_rate=0.002, step_size=35000, gamma=0.2)
  74. # 构建优化器
  75. optimizer = paddle.optimizer.Adam(
  76. parameters=model.net.parameters(), learning_rate=lr_scheduler)
  77. # 执行模型训练
  78. model.train(
  79. num_epochs=50,
  80. train_dataset=train_dataset,
  81. train_batch_size=8,
  82. eval_dataset=val_dataset,
  83. # 每多少个epoch验证并保存一次模型
  84. save_interval_epochs=5,
  85. # 每多少次迭代记录一次日志
  86. log_interval_steps=50,
  87. save_dir=EXP_DIR,
  88. # 是否使用early stopping策略,当精度不再改善时提前终止训练
  89. early_stop=False,
  90. # 是否启用VisualDL日志功能
  91. use_vdl=True,
  92. # 指定从某个检查点继续训练
  93. resume_checkpoint=None)
  94. # 加载验证集上效果最好的模型
  95. model = pdrs.tasks.load_model(osp.join(EXP_DIR, 'best_model'))
  96. # 在测试集上计算精度指标
  97. model.evaluate(test_dataset)