Bobholamovic 2 лет назад
Родитель
Сommit
d5d9895950

+ 18 - 4
tests/deploy/test_predictor.py

@@ -120,7 +120,12 @@ class TestCDPredictor(TestPredictor):
         t2_path = "data/ssmt/optical_t2.bmp"
         single_input = (t1_path, t2_path)
         num_inputs = 2
-        transforms = pdrs.transforms.Compose([pdrs.transforms.Normalize()])
+        transforms = pdrs.transforms.Compose(
+            [
+                pdrs.transforms.DecodeImg(),
+                pdrs.transforms.Normalize(),
+            ],
+            arrange=pdrs.transforms.ArrangeChangeDetector('test'))
 
         # Expected failure
         with self.assertRaises(ValueError):
@@ -184,7 +189,9 @@ class TestClasPredictor(TestPredictor):
     def check_predictor(self, predictor, trainer):
         single_input = "data/ssmt/optical_t1.bmp"
         num_inputs = 2
-        transforms = pdrs.transforms.Compose([pdrs.transforms.Normalize()])
+        transforms = pdrs.transforms.Compose(
+            [pdrs.transforms.DecodeImg(), pdrs.transforms.Normalize()],
+            arrange=pdrs.transforms.ArrangeClassifier('test'))
         labels = list(range(2))
         trainer.labels = labels
         predictor._model.labels = labels
@@ -249,7 +256,9 @@ class TestDetPredictor(TestPredictor):
         # given that the network is (partially?) randomly initialized.
         single_input = "data/ssmt/optical_t1.bmp"
         num_inputs = 2
-        transforms = pdrs.transforms.Compose([pdrs.transforms.Normalize()])
+        transforms = pdrs.transforms.Compose(
+            [pdrs.transforms.DecodeImg(), pdrs.transforms.Normalize()],
+            arrange=pdrs.transforms.ArrangeDetector('test'))
         labels = list(range(80))
         trainer.labels = labels
         predictor._model.labels = labels
@@ -303,7 +312,12 @@ class TestSegPredictor(TestPredictor):
     def check_predictor(self, predictor, trainer):
         single_input = "data/ssmt/optical_t1.bmp"
         num_inputs = 2
-        transforms = pdrs.transforms.Compose([pdrs.transforms.Normalize()])
+        transforms = pdrs.transforms.Compose(
+            [
+                pdrs.transforms.DecodeImg(),
+                pdrs.transforms.Normalize(),
+            ],
+            arrange=pdrs.transforms.ArrangeSegmenter('test'))
 
         # Single input (file path)
         input_ = single_input

+ 28 - 20
tutorials/train/change_detection/bit.py

@@ -22,27 +22,34 @@ pdrs.utils.download_and_decompress(airchange_dataset, path=DATA_DIR)
 # 定义训练和验证时使用的数据变换(数据增强、预处理等)
 # 使用Compose组合多种变换方式。Compose中包含的变换将按顺序串行执行
 # API说明:https://github.com/PaddleCV-SIG/PaddleRS/blob/develop/docs/apis/transforms.md
-train_transforms = T.Compose([
-    # 随机裁剪
-    T.RandomCrop(
-        # 裁剪区域将被缩放到256x256
-        crop_size=256,
-        # 裁剪区域的横纵比在0.5-2之间变动
-        aspect_ratio=[0.5, 2.0],
-        # 裁剪区域相对原始影像长宽比例在一定范围内变动,最小不低于原始长宽的1/5
-        scaling=[0.2, 1.0]),
-    # 以50%的概率实施随机水平翻转
-    T.RandomHorizontalFlip(prob=0.5),
-    # 将数据归一化到[-1,1]
-    T.Normalize(
-        mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5]),
-])
+train_transforms = T.Compose(
+    [
+        # 读取影像
+        T.DecodeImg(),
+        # 随机裁剪
+        T.RandomCrop(
+            # 裁剪区域将被缩放到256x256
+            crop_size=256,
+            # 裁剪区域的横纵比在0.5-2之间变动
+            aspect_ratio=[0.5, 2.0],
+            # 裁剪区域相对原始影像长宽比例在一定范围内变动,最小不低于原始长宽的1/5
+            scaling=[0.2, 1.0]),
+        # 以50%的概率实施随机水平翻转
+        T.RandomHorizontalFlip(prob=0.5),
+        # 将数据归一化到[-1,1]
+        T.Normalize(
+            mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
+    ],
+    arrange=T.ArrangeChangeDetector('train'))
 
-eval_transforms = T.Compose([
-    # 验证阶段与训练阶段的数据归一化方式必须相同
-    T.Normalize(
-        mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5]),
-])
+eval_transforms = T.Compose(
+    [
+        T.DecodeImg(),
+        # 验证阶段与训练阶段的数据归一化方式必须相同
+        T.Normalize(
+            mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
+    ],
+    arrange=T.ArrangeChangeDetector('eval'))
 
 # 分别构建训练和验证所用的数据集
 train_dataset = pdrs.datasets.CDDataset(
@@ -62,6 +69,7 @@ eval_dataset = pdrs.datasets.CDDataset(
     transforms=eval_transforms,
     num_workers=0,
     shuffle=False,
+    apply_im_only=True,
     with_seg_labels=False,
     binarize_labels=True)
 

+ 28 - 20
tutorials/train/change_detection/cdnet.py

@@ -22,27 +22,34 @@ pdrs.utils.download_and_decompress(airchange_dataset, path=DATA_DIR)
 # 定义训练和验证时使用的数据变换(数据增强、预处理等)
 # 使用Compose组合多种变换方式。Compose中包含的变换将按顺序串行执行
 # API说明:https://github.com/PaddleCV-SIG/PaddleRS/blob/develop/docs/apis/transforms.md
-train_transforms = T.Compose([
-    # 随机裁剪
-    T.RandomCrop(
-        # 裁剪区域将被缩放到256x256
-        crop_size=256,
-        # 裁剪区域的横纵比在0.5-2之间变动
-        aspect_ratio=[0.5, 2.0],
-        # 裁剪区域相对原始影像长宽比例在一定范围内变动,最小不低于原始长宽的1/5
-        scaling=[0.2, 1.0]),
-    # 以50%的概率实施随机水平翻转
-    T.RandomHorizontalFlip(prob=0.5),
-    # 将数据归一化到[-1,1]
-    T.Normalize(
-        mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5]),
-])
+train_transforms = T.Compose(
+    [
+        # 读取影像
+        T.DecodeImg(),
+        # 随机裁剪
+        T.RandomCrop(
+            # 裁剪区域将被缩放到256x256
+            crop_size=256,
+            # 裁剪区域的横纵比在0.5-2之间变动
+            aspect_ratio=[0.5, 2.0],
+            # 裁剪区域相对原始影像长宽比例在一定范围内变动,最小不低于原始长宽的1/5
+            scaling=[0.2, 1.0]),
+        # 以50%的概率实施随机水平翻转
+        T.RandomHorizontalFlip(prob=0.5),
+        # 将数据归一化到[-1,1]
+        T.Normalize(
+            mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
+    ],
+    arrange=T.ArrangeChangeDetector('train'))
 
-eval_transforms = T.Compose([
-    # 验证阶段与训练阶段的数据归一化方式必须相同
-    T.Normalize(
-        mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5]),
-])
+eval_transforms = T.Compose(
+    [
+        T.DecodeImg(),
+        # 验证阶段与训练阶段的数据归一化方式必须相同
+        T.Normalize(
+            mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
+    ],
+    arrange=T.ArrangeChangeDetector('eval'))
 
 # 分别构建训练和验证所用的数据集
 train_dataset = pdrs.datasets.CDDataset(
@@ -62,6 +69,7 @@ eval_dataset = pdrs.datasets.CDDataset(
     transforms=eval_transforms,
     num_workers=0,
     shuffle=False,
+    apply_im_only=True,
     with_seg_labels=False,
     binarize_labels=True)
 

+ 28 - 20
tutorials/train/change_detection/dsamnet.py

@@ -22,27 +22,34 @@ pdrs.utils.download_and_decompress(airchange_dataset, path=DATA_DIR)
 # 定义训练和验证时使用的数据变换(数据增强、预处理等)
 # 使用Compose组合多种变换方式。Compose中包含的变换将按顺序串行执行
 # API说明:https://github.com/PaddleCV-SIG/PaddleRS/blob/develop/docs/apis/transforms.md
-train_transforms = T.Compose([
-    # 随机裁剪
-    T.RandomCrop(
-        # 裁剪区域将被缩放到256x256
-        crop_size=256,
-        # 裁剪区域的横纵比在0.5-2之间变动
-        aspect_ratio=[0.5, 2.0],
-        # 裁剪区域相对原始影像长宽比例在一定范围内变动,最小不低于原始长宽的1/5
-        scaling=[0.2, 1.0]),
-    # 以50%的概率实施随机水平翻转
-    T.RandomHorizontalFlip(prob=0.5),
-    # 将数据归一化到[-1,1]
-    T.Normalize(
-        mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5]),
-])
+train_transforms = T.Compose(
+    [
+        # 读取影像
+        T.DecodeImg(),
+        # 随机裁剪
+        T.RandomCrop(
+            # 裁剪区域将被缩放到256x256
+            crop_size=256,
+            # 裁剪区域的横纵比在0.5-2之间变动
+            aspect_ratio=[0.5, 2.0],
+            # 裁剪区域相对原始影像长宽比例在一定范围内变动,最小不低于原始长宽的1/5
+            scaling=[0.2, 1.0]),
+        # 以50%的概率实施随机水平翻转
+        T.RandomHorizontalFlip(prob=0.5),
+        # 将数据归一化到[-1,1]
+        T.Normalize(
+            mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
+    ],
+    arrange=T.ArrangeChangeDetector('train'))
 
-eval_transforms = T.Compose([
-    # 验证阶段与训练阶段的数据归一化方式必须相同
-    T.Normalize(
-        mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5]),
-])
+eval_transforms = T.Compose(
+    [
+        T.DecodeImg(),
+        # 验证阶段与训练阶段的数据归一化方式必须相同
+        T.Normalize(
+            mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
+    ],
+    arrange=T.ArrangeChangeDetector('eval'))
 
 # 分别构建训练和验证所用的数据集
 train_dataset = pdrs.datasets.CDDataset(
@@ -62,6 +69,7 @@ eval_dataset = pdrs.datasets.CDDataset(
     transforms=eval_transforms,
     num_workers=0,
     shuffle=False,
+    apply_im_only=True,
     with_seg_labels=False,
     binarize_labels=True)
 

+ 28 - 20
tutorials/train/change_detection/dsifn.py

@@ -22,27 +22,34 @@ pdrs.utils.download_and_decompress(airchange_dataset, path=DATA_DIR)
 # 定义训练和验证时使用的数据变换(数据增强、预处理等)
 # 使用Compose组合多种变换方式。Compose中包含的变换将按顺序串行执行
 # API说明:https://github.com/PaddleCV-SIG/PaddleRS/blob/develop/docs/apis/transforms.md
-train_transforms = T.Compose([
-    # 随机裁剪
-    T.RandomCrop(
-        # 裁剪区域将被缩放到256x256
-        crop_size=256,
-        # 裁剪区域的横纵比在0.5-2之间变动
-        aspect_ratio=[0.5, 2.0],
-        # 裁剪区域相对原始影像长宽比例在一定范围内变动,最小不低于原始长宽的1/5
-        scaling=[0.2, 1.0]),
-    # 以50%的概率实施随机水平翻转
-    T.RandomHorizontalFlip(prob=0.5),
-    # 将数据归一化到[-1,1]
-    T.Normalize(
-        mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5]),
-])
+train_transforms = T.Compose(
+    [
+        # 读取影像
+        T.DecodeImg(),
+        # 随机裁剪
+        T.RandomCrop(
+            # 裁剪区域将被缩放到256x256
+            crop_size=256,
+            # 裁剪区域的横纵比在0.5-2之间变动
+            aspect_ratio=[0.5, 2.0],
+            # 裁剪区域相对原始影像长宽比例在一定范围内变动,最小不低于原始长宽的1/5
+            scaling=[0.2, 1.0]),
+        # 以50%的概率实施随机水平翻转
+        T.RandomHorizontalFlip(prob=0.5),
+        # 将数据归一化到[-1,1]
+        T.Normalize(
+            mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
+    ],
+    arrange=T.ArrangeChangeDetector('train'))
 
-eval_transforms = T.Compose([
-    # 验证阶段与训练阶段的数据归一化方式必须相同
-    T.Normalize(
-        mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5]),
-])
+eval_transforms = T.Compose(
+    [
+        T.DecodeImg(),
+        # 验证阶段与训练阶段的数据归一化方式必须相同
+        T.Normalize(
+            mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
+    ],
+    arrange=T.ArrangeChangeDetector('eval'))
 
 # 分别构建训练和验证所用的数据集
 train_dataset = pdrs.datasets.CDDataset(
@@ -62,6 +69,7 @@ eval_dataset = pdrs.datasets.CDDataset(
     transforms=eval_transforms,
     num_workers=0,
     shuffle=False,
+    apply_im_only=True,
     with_seg_labels=False,
     binarize_labels=True)
 

+ 28 - 20
tutorials/train/change_detection/fc_ef.py

@@ -22,27 +22,34 @@ pdrs.utils.download_and_decompress(airchange_dataset, path=DATA_DIR)
 # 定义训练和验证时使用的数据变换(数据增强、预处理等)
 # 使用Compose组合多种变换方式。Compose中包含的变换将按顺序串行执行
 # API说明:https://github.com/PaddleCV-SIG/PaddleRS/blob/develop/docs/apis/transforms.md
-train_transforms = T.Compose([
-    # 随机裁剪
-    T.RandomCrop(
-        # 裁剪区域将被缩放到256x256
-        crop_size=256,
-        # 裁剪区域的横纵比在0.5-2之间变动
-        aspect_ratio=[0.5, 2.0],
-        # 裁剪区域相对原始影像长宽比例在一定范围内变动,最小不低于原始长宽的1/5
-        scaling=[0.2, 1.0]),
-    # 以50%的概率实施随机水平翻转
-    T.RandomHorizontalFlip(prob=0.5),
-    # 将数据归一化到[-1,1]
-    T.Normalize(
-        mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5]),
-])
+train_transforms = T.Compose(
+    [
+        # 读取影像
+        T.DecodeImg(),
+        # 随机裁剪
+        T.RandomCrop(
+            # 裁剪区域将被缩放到256x256
+            crop_size=256,
+            # 裁剪区域的横纵比在0.5-2之间变动
+            aspect_ratio=[0.5, 2.0],
+            # 裁剪区域相对原始影像长宽比例在一定范围内变动,最小不低于原始长宽的1/5
+            scaling=[0.2, 1.0]),
+        # 以50%的概率实施随机水平翻转
+        T.RandomHorizontalFlip(prob=0.5),
+        # 将数据归一化到[-1,1]
+        T.Normalize(
+            mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
+    ],
+    arrange=T.ArrangeChangeDetector('train'))
 
-eval_transforms = T.Compose([
-    # 验证阶段与训练阶段的数据归一化方式必须相同
-    T.Normalize(
-        mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5]),
-])
+eval_transforms = T.Compose(
+    [
+        T.DecodeImg(),
+        # 验证阶段与训练阶段的数据归一化方式必须相同
+        T.Normalize(
+            mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
+    ],
+    arrange=T.ArrangeChangeDetector('eval'))
 
 # 分别构建训练和验证所用的数据集
 train_dataset = pdrs.datasets.CDDataset(
@@ -62,6 +69,7 @@ eval_dataset = pdrs.datasets.CDDataset(
     transforms=eval_transforms,
     num_workers=0,
     shuffle=False,
+    apply_im_only=True,
     with_seg_labels=False,
     binarize_labels=True)
 

+ 28 - 20
tutorials/train/change_detection/fc_siam_conc.py

@@ -22,27 +22,34 @@ pdrs.utils.download_and_decompress(airchange_dataset, path=DATA_DIR)
 # 定义训练和验证时使用的数据变换(数据增强、预处理等)
 # 使用Compose组合多种变换方式。Compose中包含的变换将按顺序串行执行
 # API说明:https://github.com/PaddleCV-SIG/PaddleRS/blob/develop/docs/apis/transforms.md
-train_transforms = T.Compose([
-    # 随机裁剪
-    T.RandomCrop(
-        # 裁剪区域将被缩放到256x256
-        crop_size=256,
-        # 裁剪区域的横纵比在0.5-2之间变动
-        aspect_ratio=[0.5, 2.0],
-        # 裁剪区域相对原始影像长宽比例在一定范围内变动,最小不低于原始长宽的1/5
-        scaling=[0.2, 1.0]),
-    # 以50%的概率实施随机水平翻转
-    T.RandomHorizontalFlip(prob=0.5),
-    # 将数据归一化到[-1,1]
-    T.Normalize(
-        mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5]),
-])
+train_transforms = T.Compose(
+    [
+        # 读取影像
+        T.DecodeImg(),
+        # 随机裁剪
+        T.RandomCrop(
+            # 裁剪区域将被缩放到256x256
+            crop_size=256,
+            # 裁剪区域的横纵比在0.5-2之间变动
+            aspect_ratio=[0.5, 2.0],
+            # 裁剪区域相对原始影像长宽比例在一定范围内变动,最小不低于原始长宽的1/5
+            scaling=[0.2, 1.0]),
+        # 以50%的概率实施随机水平翻转
+        T.RandomHorizontalFlip(prob=0.5),
+        # 将数据归一化到[-1,1]
+        T.Normalize(
+            mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
+    ],
+    arrange=T.ArrangeChangeDetector('train'))
 
-eval_transforms = T.Compose([
-    # 验证阶段与训练阶段的数据归一化方式必须相同
-    T.Normalize(
-        mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5]),
-])
+eval_transforms = T.Compose(
+    [
+        T.DecodeImg(),
+        # 验证阶段与训练阶段的数据归一化方式必须相同
+        T.Normalize(
+            mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
+    ],
+    arrange=T.ArrangeChangeDetector('eval'))
 
 # 分别构建训练和验证所用的数据集
 train_dataset = pdrs.datasets.CDDataset(
@@ -62,6 +69,7 @@ eval_dataset = pdrs.datasets.CDDataset(
     transforms=eval_transforms,
     num_workers=0,
     shuffle=False,
+    apply_im_only=True,
     with_seg_labels=False,
     binarize_labels=True)
 

+ 28 - 20
tutorials/train/change_detection/fc_siam_diff.py

@@ -22,27 +22,34 @@ pdrs.utils.download_and_decompress(airchange_dataset, path=DATA_DIR)
 # 定义训练和验证时使用的数据变换(数据增强、预处理等)
 # 使用Compose组合多种变换方式。Compose中包含的变换将按顺序串行执行
 # API说明:https://github.com/PaddleCV-SIG/PaddleRS/blob/develop/docs/apis/transforms.md
-train_transforms = T.Compose([
-    # 随机裁剪
-    T.RandomCrop(
-        # 裁剪区域将被缩放到256x256
-        crop_size=256,
-        # 裁剪区域的横纵比在0.5-2之间变动
-        aspect_ratio=[0.5, 2.0],
-        # 裁剪区域相对原始影像长宽比例在一定范围内变动,最小不低于原始长宽的1/5
-        scaling=[0.2, 1.0]),
-    # 以50%的概率实施随机水平翻转
-    T.RandomHorizontalFlip(prob=0.5),
-    # 将数据归一化到[-1,1]
-    T.Normalize(
-        mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5]),
-])
+train_transforms = T.Compose(
+    [
+        # 读取影像
+        T.DecodeImg(),
+        # 随机裁剪
+        T.RandomCrop(
+            # 裁剪区域将被缩放到256x256
+            crop_size=256,
+            # 裁剪区域的横纵比在0.5-2之间变动
+            aspect_ratio=[0.5, 2.0],
+            # 裁剪区域相对原始影像长宽比例在一定范围内变动,最小不低于原始长宽的1/5
+            scaling=[0.2, 1.0]),
+        # 以50%的概率实施随机水平翻转
+        T.RandomHorizontalFlip(prob=0.5),
+        # 将数据归一化到[-1,1]
+        T.Normalize(
+            mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
+    ],
+    arrange=T.ArrangeChangeDetector('train'))
 
-eval_transforms = T.Compose([
-    # 验证阶段与训练阶段的数据归一化方式必须相同
-    T.Normalize(
-        mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5]),
-])
+eval_transforms = T.Compose(
+    [
+        T.DecodeImg(),
+        # 验证阶段与训练阶段的数据归一化方式必须相同
+        T.Normalize(
+            mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
+    ],
+    arrange=T.ArrangeChangeDetector('eval'))
 
 # 分别构建训练和验证所用的数据集
 train_dataset = pdrs.datasets.CDDataset(
@@ -62,6 +69,7 @@ eval_dataset = pdrs.datasets.CDDataset(
     transforms=eval_transforms,
     num_workers=0,
     shuffle=False,
+    apply_im_only=True,
     with_seg_labels=False,
     binarize_labels=True)
 

+ 28 - 20
tutorials/train/change_detection/snunet.py

@@ -22,27 +22,34 @@ pdrs.utils.download_and_decompress(airchange_dataset, path=DATA_DIR)
 # 定义训练和验证时使用的数据变换(数据增强、预处理等)
 # 使用Compose组合多种变换方式。Compose中包含的变换将按顺序串行执行
 # API说明:https://github.com/PaddleCV-SIG/PaddleRS/blob/develop/docs/apis/transforms.md
-train_transforms = T.Compose([
-    # 随机裁剪
-    T.RandomCrop(
-        # 裁剪区域将被缩放到256x256
-        crop_size=256,
-        # 裁剪区域的横纵比在0.5-2之间变动
-        aspect_ratio=[0.5, 2.0],
-        # 裁剪区域相对原始影像长宽比例在一定范围内变动,最小不低于原始长宽的1/5
-        scaling=[0.2, 1.0]),
-    # 以50%的概率实施随机水平翻转
-    T.RandomHorizontalFlip(prob=0.5),
-    # 将数据归一化到[-1,1]
-    T.Normalize(
-        mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5]),
-])
+train_transforms = T.Compose(
+    [
+        # 读取影像
+        T.DecodeImg(),
+        # 随机裁剪
+        T.RandomCrop(
+            # 裁剪区域将被缩放到256x256
+            crop_size=256,
+            # 裁剪区域的横纵比在0.5-2之间变动
+            aspect_ratio=[0.5, 2.0],
+            # 裁剪区域相对原始影像长宽比例在一定范围内变动,最小不低于原始长宽的1/5
+            scaling=[0.2, 1.0]),
+        # 以50%的概率实施随机水平翻转
+        T.RandomHorizontalFlip(prob=0.5),
+        # 将数据归一化到[-1,1]
+        T.Normalize(
+            mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
+    ],
+    arrange=T.ArrangeChangeDetector('train'))
 
-eval_transforms = T.Compose([
-    # 验证阶段与训练阶段的数据归一化方式必须相同
-    T.Normalize(
-        mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5]),
-])
+eval_transforms = T.Compose(
+    [
+        T.DecodeImg(),
+        # 验证阶段与训练阶段的数据归一化方式必须相同
+        T.Normalize(
+            mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
+    ],
+    arrange=T.ArrangeChangeDetector('eval'))
 
 # 分别构建训练和验证所用的数据集
 train_dataset = pdrs.datasets.CDDataset(
@@ -62,6 +69,7 @@ eval_dataset = pdrs.datasets.CDDataset(
     transforms=eval_transforms,
     num_workers=0,
     shuffle=False,
+    apply_im_only=True,
     with_seg_labels=False,
     binarize_labels=True)
 

+ 28 - 20
tutorials/train/change_detection/stanet.py

@@ -22,27 +22,34 @@ pdrs.utils.download_and_decompress(airchange_dataset, path=DATA_DIR)
 # 定义训练和验证时使用的数据变换(数据增强、预处理等)
 # 使用Compose组合多种变换方式。Compose中包含的变换将按顺序串行执行
 # API说明:https://github.com/PaddleCV-SIG/PaddleRS/blob/develop/docs/apis/transforms.md
-train_transforms = T.Compose([
-    # 随机裁剪
-    T.RandomCrop(
-        # 裁剪区域将被缩放到256x256
-        crop_size=256,
-        # 裁剪区域的横纵比在0.5-2之间变动
-        aspect_ratio=[0.5, 2.0],
-        # 裁剪区域相对原始影像长宽比例在一定范围内变动,最小不低于原始长宽的1/5
-        scaling=[0.2, 1.0]),
-    # 以50%的概率实施随机水平翻转
-    T.RandomHorizontalFlip(prob=0.5),
-    # 将数据归一化到[-1,1]
-    T.Normalize(
-        mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5]),
-])
+train_transforms = T.Compose(
+    [
+        # 读取影像
+        T.DecodeImg(),
+        # 随机裁剪
+        T.RandomCrop(
+            # 裁剪区域将被缩放到256x256
+            crop_size=256,
+            # 裁剪区域的横纵比在0.5-2之间变动
+            aspect_ratio=[0.5, 2.0],
+            # 裁剪区域相对原始影像长宽比例在一定范围内变动,最小不低于原始长宽的1/5
+            scaling=[0.2, 1.0]),
+        # 以50%的概率实施随机水平翻转
+        T.RandomHorizontalFlip(prob=0.5),
+        # 将数据归一化到[-1,1]
+        T.Normalize(
+            mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
+    ],
+    arrange=T.ArrangeChangeDetector('train'))
 
-eval_transforms = T.Compose([
-    # 验证阶段与训练阶段的数据归一化方式必须相同
-    T.Normalize(
-        mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5]),
-])
+eval_transforms = T.Compose(
+    [
+        T.DecodeImg(),
+        # 验证阶段与训练阶段的数据归一化方式必须相同
+        T.Normalize(
+            mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
+    ],
+    arrange=T.ArrangeChangeDetector('eval'))
 
 # 分别构建训练和验证所用的数据集
 train_dataset = pdrs.datasets.CDDataset(
@@ -62,6 +69,7 @@ eval_dataset = pdrs.datasets.CDDataset(
     transforms=eval_transforms,
     num_workers=0,
     shuffle=False,
+    apply_im_only=True,
     with_seg_labels=False,
     binarize_labels=True)
 

+ 18 - 13
tutorials/train/classification/condensenetv2_b_rs_mul.py

@@ -2,20 +2,25 @@ import paddlers as pdrs
 from paddlers import transforms as T
 
 # 定义训练和验证时的transforms
-train_transforms = T.Compose([
-    T.SelectBand([5, 10, 15, 20, 25]),  # for tet
-    T.Resize(target_size=224),
-    T.RandomHorizontalFlip(),
-    T.Normalize(
-        mean=[0.5, 0.5, 0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5, 0.5, 0.5]),
-])
+train_transforms = T.Compose(
+    [
+        # 读取影像
+        T.DecodeImg(),
+        T.SelectBand([5, 10, 15, 20, 25]),  # for tet
+        T.Resize(target_size=224),
+        T.RandomHorizontalFlip(),
+        T.Normalize(
+            mean=[0.5, 0.5, 0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5, 0.5, 0.5])
+    ],
+    arrange=T.ArrangeClassifier('train'))
 
-eval_transforms = T.Compose([
-    T.SelectBand([5, 10, 15, 20, 25]),
-    T.Resize(target_size=224),
-    T.Normalize(
-        mean=[0.5, 0.5, 0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5, 0.5, 0.5]),
-])
+eval_transforms = T.Compose(
+    [
+        T.DecodeImg(), T.SelectBand([5, 10, 15, 20, 25]),
+        T.Resize(target_size=224), T.Normalize(
+            mean=[0.5, 0.5, 0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5, 0.5, 0.5])
+    ],
+    arrange=T.ArrangeClassifier('eval'))
 
 # 定义训练和验证所用的数据集
 train_dataset = pdrs.datasets.ClasDataset(

+ 24 - 17
tutorials/train/classification/hrnet.py

@@ -26,24 +26,31 @@ pdrs.utils.download_and_decompress(ucmerced_dataset, path=DOWNLOAD_DIR)
 # 定义训练和验证时使用的数据变换(数据增强、预处理等)
 # 使用Compose组合多种变换方式。Compose中包含的变换将按顺序串行执行
 # API说明:https://github.com/PaddleCV-SIG/PaddleRS/blob/develop/docs/apis/transforms.md
-train_transforms = T.Compose([
-    # 将影像缩放到256x256大小
-    T.Resize(target_size=256),
-    # 以50%的概率实施随机水平翻转
-    T.RandomHorizontalFlip(prob=0.5),
-    # 以50%的概率实施随机垂直翻转
-    T.RandomVerticalFlip(prob=0.5),
-    # 将数据归一化到[-1,1]
-    T.Normalize(
-        mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5]),
-])
+train_transforms = T.Compose(
+    [
+        # 读取影像
+        T.DecodeImg(),
+        # 将影像缩放到256x256大小
+        T.Resize(target_size=256),
+        # 以50%的概率实施随机水平翻转
+        T.RandomHorizontalFlip(prob=0.5),
+        # 以50%的概率实施随机垂直翻转
+        T.RandomVerticalFlip(prob=0.5),
+        # 将数据归一化到[-1,1]
+        T.Normalize(
+            mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
+    ],
+    arrange=T.ArrangeClassifier('train'))
 
-eval_transforms = T.Compose([
-    T.Resize(target_size=256),
-    # 验证阶段与训练阶段的数据归一化方式必须相同
-    T.Normalize(
-        mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5]),
-])
+eval_transforms = T.Compose(
+    [
+        T.DecodeImg(),
+        T.Resize(target_size=256),
+        # 验证阶段与训练阶段的数据归一化方式必须相同
+        T.Normalize(
+            mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
+    ],
+    arrange=T.ArrangeClassifier('eval'))
 
 # 分别构建训练和验证所用的数据集
 train_dataset = pdrs.datasets.ClasDataset(

+ 24 - 17
tutorials/train/classification/mobilenetv3.py

@@ -26,24 +26,31 @@ pdrs.utils.download_and_decompress(ucmerced_dataset, path=DOWNLOAD_DIR)
 # 定义训练和验证时使用的数据变换(数据增强、预处理等)
 # 使用Compose组合多种变换方式。Compose中包含的变换将按顺序串行执行
 # API说明:https://github.com/PaddleCV-SIG/PaddleRS/blob/develop/docs/apis/transforms.md
-train_transforms = T.Compose([
-    # 将影像缩放到256x256大小
-    T.Resize(target_size=256),
-    # 以50%的概率实施随机水平翻转
-    T.RandomHorizontalFlip(prob=0.5),
-    # 以50%的概率实施随机垂直翻转
-    T.RandomVerticalFlip(prob=0.5),
-    # 将数据归一化到[-1,1]
-    T.Normalize(
-        mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5]),
-])
+train_transforms = T.Compose(
+    [
+        # 读取影像
+        T.DecodeImg(),
+        # 将影像缩放到256x256大小
+        T.Resize(target_size=256),
+        # 以50%的概率实施随机水平翻转
+        T.RandomHorizontalFlip(prob=0.5),
+        # 以50%的概率实施随机垂直翻转
+        T.RandomVerticalFlip(prob=0.5),
+        # 将数据归一化到[-1,1]
+        T.Normalize(
+            mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
+    ],
+    arrange=T.ArrangeClassifier('train'))
 
-eval_transforms = T.Compose([
-    T.Resize(target_size=256),
-    # 验证阶段与训练阶段的数据归一化方式必须相同
-    T.Normalize(
-        mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5]),
-])
+eval_transforms = T.Compose(
+    [
+        T.DecodeImg(),
+        T.Resize(target_size=256),
+        # 验证阶段与训练阶段的数据归一化方式必须相同
+        T.Normalize(
+            mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
+    ],
+    arrange=T.ArrangeClassifier('eval'))
 
 # 分别构建训练和验证所用的数据集
 train_dataset = pdrs.datasets.ClasDataset(

+ 24 - 17
tutorials/train/classification/resnet50_vd.py

@@ -26,24 +26,31 @@ pdrs.utils.download_and_decompress(ucmerced_dataset, path=DOWNLOAD_DIR)
 # 定义训练和验证时使用的数据变换(数据增强、预处理等)
 # 使用Compose组合多种变换方式。Compose中包含的变换将按顺序串行执行
 # API说明:https://github.com/PaddleCV-SIG/PaddleRS/blob/develop/docs/apis/transforms.md
-train_transforms = T.Compose([
-    # 将影像缩放到256x256大小
-    T.Resize(target_size=256),
-    # 以50%的概率实施随机水平翻转
-    T.RandomHorizontalFlip(prob=0.5),
-    # 以50%的概率实施随机垂直翻转
-    T.RandomVerticalFlip(prob=0.5),
-    # 将数据归一化到[-1,1]
-    T.Normalize(
-        mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5]),
-])
+train_transforms = T.Compose(
+    [
+        # 读取影像
+        T.DecodeImg(),
+        # 将影像缩放到256x256大小
+        T.Resize(target_size=256),
+        # 以50%的概率实施随机水平翻转
+        T.RandomHorizontalFlip(prob=0.5),
+        # 以50%的概率实施随机垂直翻转
+        T.RandomVerticalFlip(prob=0.5),
+        # 将数据归一化到[-1,1]
+        T.Normalize(
+            mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
+    ],
+    arrange=T.ArrangeClassifier('train'))
 
-eval_transforms = T.Compose([
-    T.Resize(target_size=256),
-    # 验证阶段与训练阶段的数据归一化方式必须相同
-    T.Normalize(
-        mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5]),
-])
+eval_transforms = T.Compose(
+    [
+        T.DecodeImg(),
+        T.Resize(target_size=256),
+        # 验证阶段与训练阶段的数据归一化方式必须相同
+        T.Normalize(
+            mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
+    ],
+    arrange=T.ArrangeClassifier('eval'))
 
 # 分别构建训练和验证所用的数据集
 train_dataset = pdrs.datasets.ClasDataset(

+ 32 - 25
tutorials/train/object_detection/faster_rcnn.py

@@ -29,32 +29,39 @@ if not os.path.exists(DATA_DIR):
 # 定义训练和验证时使用的数据变换(数据增强、预处理等)
 # 使用Compose组合多种变换方式。Compose中包含的变换将按顺序串行执行
 # API说明:https://github.com/PaddleCV-SIG/PaddleRS/blob/develop/docs/apis/transforms.md
-train_transforms = T.Compose([
-    # 对输入影像施加随机色彩扰动
-    T.RandomDistort(),
-    # 在影像边界进行随机padding
-    T.RandomExpand(),
-    # 随机裁剪,裁块大小在一定范围内变动
-    T.RandomCrop(),
-    # 随机水平翻转
-    T.RandomHorizontalFlip(),
-    # 对batch进行随机缩放,随机选择插值方式
-    T.BatchRandomResize(
-        target_sizes=[320, 352, 384, 416, 448, 480, 512, 544, 576, 608],
-        interp='RANDOM'),
-    # 影像归一化
-    T.Normalize(
-        mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
-])
+train_transforms = T.Compose(
+    [
+        # 读取影像
+        T.DecodeImg(),
+        # 对输入影像施加随机色彩扰动
+        T.RandomDistort(),
+        # 在影像边界进行随机padding
+        T.RandomExpand(),
+        # 随机裁剪,裁块大小在一定范围内变动
+        T.RandomCrop(),
+        # 随机水平翻转
+        T.RandomHorizontalFlip(),
+        # 对batch进行随机缩放,随机选择插值方式
+        T.BatchRandomResize(
+            target_sizes=[320, 352, 384, 416, 448, 480, 512, 544, 576, 608],
+            interp='RANDOM'),
+        # 影像归一化
+        T.Normalize(
+            mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
+    ],
+    arrange=T.ArrangeDetector('train'))
 
-eval_transforms = T.Compose([
-    # 使用双三次插值将输入影像缩放到固定大小
-    T.Resize(
-        target_size=608, interp='CUBIC'),
-    # 验证阶段与训练阶段的归一化方式必须相同
-    T.Normalize(
-        mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
-])
+eval_transforms = T.Compose(
+    [
+        T.DecodeImg(),
+        # 使用双三次插值将输入影像缩放到固定大小
+        T.Resize(
+            target_size=608, interp='CUBIC'),
+        # 验证阶段与训练阶段的归一化方式必须相同
+        T.Normalize(
+            mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
+    ],
+    arrange=T.ArrangeDetector('eval'))
 
 # 分别构建训练和验证所用的数据集
 train_dataset = pdrs.datasets.VOCDetection(

+ 32 - 25
tutorials/train/object_detection/ppyolo.py

@@ -30,32 +30,39 @@ if not os.path.exists(DATA_DIR):
 # 定义训练和验证时使用的数据变换(数据增强、预处理等)
 # 使用Compose组合多种变换方式。Compose中包含的变换将按顺序串行执行
 # API说明:https://github.com/PaddleCV-SIG/PaddleRS/blob/develop/docs/apis/transforms.md
-train_transforms = T.Compose([
-    # 对输入影像施加随机色彩扰动
-    T.RandomDistort(),
-    # 在影像边界进行随机padding
-    T.RandomExpand(),
-    # 随机裁剪,裁块大小在一定范围内变动
-    T.RandomCrop(),
-    # 随机水平翻转
-    T.RandomHorizontalFlip(),
-    # 对batch进行随机缩放,随机选择插值方式
-    T.BatchRandomResize(
-        target_sizes=[320, 352, 384, 416, 448, 480, 512, 544, 576, 608],
-        interp='RANDOM'),
-    # 影像归一化
-    T.Normalize(
-        mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
-])
+train_transforms = T.Compose(
+    [
+        # 读取影像
+        T.DecodeImg(),
+        # 对输入影像施加随机色彩扰动
+        T.RandomDistort(),
+        # 在影像边界进行随机padding
+        T.RandomExpand(),
+        # 随机裁剪,裁块大小在一定范围内变动
+        T.RandomCrop(),
+        # 随机水平翻转
+        T.RandomHorizontalFlip(),
+        # 对batch进行随机缩放,随机选择插值方式
+        T.BatchRandomResize(
+            target_sizes=[320, 352, 384, 416, 448, 480, 512, 544, 576, 608],
+            interp='RANDOM'),
+        # 影像归一化
+        T.Normalize(
+            mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
+    ],
+    arrange=T.ArrangeDetector('train'))
 
-eval_transforms = T.Compose([
-    # 使用双三次插值将输入影像缩放到固定大小
-    T.Resize(
-        target_size=608, interp='CUBIC'),
-    # 验证阶段与训练阶段的归一化方式必须相同
-    T.Normalize(
-        mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
-])
+eval_transforms = T.Compose(
+    [
+        T.DecodeImg(),
+        # 使用双三次插值将输入影像缩放到固定大小
+        T.Resize(
+            target_size=608, interp='CUBIC'),
+        # 验证阶段与训练阶段的归一化方式必须相同
+        T.Normalize(
+            mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
+    ],
+    arrange=T.ArrangeDetector('eval'))
 
 # 分别构建训练和验证所用的数据集
 train_dataset = pdrs.datasets.VOCDetection(

+ 32 - 25
tutorials/train/object_detection/ppyolotiny.py

@@ -30,32 +30,39 @@ if not os.path.exists(DATA_DIR):
 # 定义训练和验证时使用的数据变换(数据增强、预处理等)
 # 使用Compose组合多种变换方式。Compose中包含的变换将按顺序串行执行
 # API说明:https://github.com/PaddleCV-SIG/PaddleRS/blob/develop/docs/apis/transforms.md
-train_transforms = T.Compose([
-    # 对输入影像施加随机色彩扰动
-    T.RandomDistort(),
-    # 在影像边界进行随机padding
-    T.RandomExpand(),
-    # 随机裁剪,裁块大小在一定范围内变动
-    T.RandomCrop(),
-    # 随机水平翻转
-    T.RandomHorizontalFlip(),
-    # 对batch进行随机缩放,随机选择插值方式
-    T.BatchRandomResize(
-        target_sizes=[320, 352, 384, 416, 448, 480, 512, 544, 576, 608],
-        interp='RANDOM'),
-    # 影像归一化
-    T.Normalize(
-        mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
-])
+train_transforms = T.Compose(
+    [
+        # 读取影像
+        T.DecodeImg(),
+        # 对输入影像施加随机色彩扰动
+        T.RandomDistort(),
+        # 在影像边界进行随机padding
+        T.RandomExpand(),
+        # 随机裁剪,裁块大小在一定范围内变动
+        T.RandomCrop(),
+        # 随机水平翻转
+        T.RandomHorizontalFlip(),
+        # 对batch进行随机缩放,随机选择插值方式
+        T.BatchRandomResize(
+            target_sizes=[320, 352, 384, 416, 448, 480, 512, 544, 576, 608],
+            interp='RANDOM'),
+        # 影像归一化
+        T.Normalize(
+            mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
+    ],
+    arrange=T.ArrangeDetector('train'))
 
-eval_transforms = T.Compose([
-    # 使用双三次插值将输入影像缩放到固定大小
-    T.Resize(
-        target_size=608, interp='CUBIC'),
-    # 验证阶段与训练阶段的归一化方式必须相同
-    T.Normalize(
-        mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
-])
+eval_transforms = T.Compose(
+    [
+        T.DecodeImg(),
+        # 使用双三次插值将输入影像缩放到固定大小
+        T.Resize(
+            target_size=608, interp='CUBIC'),
+        # 验证阶段与训练阶段的归一化方式必须相同
+        T.Normalize(
+            mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
+    ],
+    arrange=T.ArrangeDetector('eval'))
 
 # 分别构建训练和验证所用的数据集
 train_dataset = pdrs.datasets.VOCDetection(

+ 32 - 25
tutorials/train/object_detection/ppyolov2.py

@@ -30,32 +30,39 @@ if not os.path.exists(DATA_DIR):
 # 定义训练和验证时使用的数据变换(数据增强、预处理等)
 # 使用Compose组合多种变换方式。Compose中包含的变换将按顺序串行执行
 # API说明:https://github.com/PaddleCV-SIG/PaddleRS/blob/develop/docs/apis/transforms.md
-train_transforms = T.Compose([
-    # 对输入影像施加随机色彩扰动
-    T.RandomDistort(),
-    # 在影像边界进行随机padding
-    T.RandomExpand(),
-    # 随机裁剪,裁块大小在一定范围内变动
-    T.RandomCrop(),
-    # 随机水平翻转
-    T.RandomHorizontalFlip(),
-    # 对batch进行随机缩放,随机选择插值方式
-    T.BatchRandomResize(
-        target_sizes=[320, 352, 384, 416, 448, 480, 512, 544, 576, 608],
-        interp='RANDOM'),
-    # 影像归一化
-    T.Normalize(
-        mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
-])
+train_transforms = T.Compose(
+    [
+        # 读取影像
+        T.DecodeImg(),
+        # 对输入影像施加随机色彩扰动
+        T.RandomDistort(),
+        # 在影像边界进行随机padding
+        T.RandomExpand(),
+        # 随机裁剪,裁块大小在一定范围内变动
+        T.RandomCrop(),
+        # 随机水平翻转
+        T.RandomHorizontalFlip(),
+        # 对batch进行随机缩放,随机选择插值方式
+        T.BatchRandomResize(
+            target_sizes=[320, 352, 384, 416, 448, 480, 512, 544, 576, 608],
+            interp='RANDOM'),
+        # 影像归一化
+        T.Normalize(
+            mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
+    ],
+    arrange=T.ArrangeDetector('train'))
 
-eval_transforms = T.Compose([
-    # 使用双三次插值将输入影像缩放到固定大小
-    T.Resize(
-        target_size=608, interp='CUBIC'),
-    # 验证阶段与训练阶段的归一化方式必须相同
-    T.Normalize(
-        mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
-])
+eval_transforms = T.Compose(
+    [
+        T.DecodeImg(),
+        # 使用双三次插值将输入影像缩放到固定大小
+        T.Resize(
+            target_size=608, interp='CUBIC'),
+        # 验证阶段与训练阶段的归一化方式必须相同
+        T.Normalize(
+            mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
+    ],
+    arrange=T.ArrangeDetector('eval'))
 
 # 分别构建训练和验证所用的数据集
 train_dataset = pdrs.datasets.VOCDetection(

+ 32 - 25
tutorials/train/object_detection/yolov3.py

@@ -30,32 +30,39 @@ if not os.path.exists(DATA_DIR):
 # 定义训练和验证时使用的数据变换(数据增强、预处理等)
 # 使用Compose组合多种变换方式。Compose中包含的变换将按顺序串行执行
 # API说明:https://github.com/PaddleCV-SIG/PaddleRS/blob/develop/docs/apis/transforms.md
-train_transforms = T.Compose([
-    # 对输入影像施加随机色彩扰动
-    T.RandomDistort(),
-    # 在影像边界进行随机padding
-    T.RandomExpand(),
-    # 随机裁剪,裁块大小在一定范围内变动
-    T.RandomCrop(),
-    # 随机水平翻转
-    T.RandomHorizontalFlip(),
-    # 对batch进行随机缩放,随机选择插值方式
-    T.BatchRandomResize(
-        target_sizes=[320, 352, 384, 416, 448, 480, 512, 544, 576, 608],
-        interp='RANDOM'),
-    # 影像归一化
-    T.Normalize(
-        mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
-])
+train_transforms = T.Compose(
+    [
+        # 读取影像
+        T.DecodeImg(),
+        # 对输入影像施加随机色彩扰动
+        T.RandomDistort(),
+        # 在影像边界进行随机padding
+        T.RandomExpand(),
+        # 随机裁剪,裁块大小在一定范围内变动
+        T.RandomCrop(),
+        # 随机水平翻转
+        T.RandomHorizontalFlip(),
+        # 对batch进行随机缩放,随机选择插值方式
+        T.BatchRandomResize(
+            target_sizes=[320, 352, 384, 416, 448, 480, 512, 544, 576, 608],
+            interp='RANDOM'),
+        # 影像归一化
+        T.Normalize(
+            mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
+    ],
+    arrange=T.ArrangeDetector('train'))
 
-eval_transforms = T.Compose([
-    # 使用双三次插值将输入影像缩放到固定大小
-    T.Resize(
-        target_size=608, interp='CUBIC'),
-    # 验证阶段与训练阶段的归一化方式必须相同
-    T.Normalize(
-        mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
-])
+eval_transforms = T.Compose(
+    [
+        T.DecodeImg(),
+        # 使用双三次插值将输入影像缩放到固定大小
+        T.Resize(
+            target_size=608, interp='CUBIC'),
+        # 验证阶段与训练阶段的归一化方式必须相同
+        T.Normalize(
+            mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
+    ],
+    arrange=T.ArrangeDetector('eval'))
 
 # 分别构建训练和验证所用的数据集
 train_dataset = pdrs.datasets.VOCDetection(

+ 24 - 16
tutorials/train/semantic_segmentation/deeplabv3p.py

@@ -29,22 +29,29 @@ pdrs.utils.download_and_decompress(seg_dataset, path=DOWNLOAD_DIR)
 # 定义训练和验证时使用的数据变换(数据增强、预处理等)
 # 使用Compose组合多种变换方式。Compose中包含的变换将按顺序串行执行
 # API说明:https://github.com/PaddleCV-SIG/PaddleRS/blob/develop/docs/apis/transforms.md
-train_transforms = T.Compose([
-    # 将影像缩放到512x512大小
-    T.Resize(target_size=512),
-    # 以50%的概率实施随机水平翻转
-    T.RandomHorizontalFlip(prob=0.5),
-    # 将数据归一化到[-1,1]
-    T.Normalize(
-        mean=[0.5] * NUM_BANDS, std=[0.5] * NUM_BANDS),
-])
+train_transforms = T.Compose(
+    [
+        # 读取影像
+        T.DecodeImg(),
+        # 将影像缩放到512x512大小
+        T.Resize(target_size=512),
+        # 以50%的概率实施随机水平翻转
+        T.RandomHorizontalFlip(prob=0.5),
+        # 将数据归一化到[-1,1]
+        T.Normalize(
+            mean=[0.5] * NUM_BANDS, std=[0.5] * NUM_BANDS)
+    ],
+    arrange=T.ArrangeSegmenter('train'))
 
-eval_transforms = T.Compose([
-    T.Resize(target_size=512),
-    # 验证阶段与训练阶段的数据归一化方式必须相同
-    T.Normalize(
-        mean=[0.5] * NUM_BANDS, std=[0.5] * NUM_BANDS),
-])
+eval_transforms = T.Compose(
+    [
+        T.DecodeImg(),
+        T.Resize(target_size=512),
+        # 验证阶段与训练阶段的数据归一化方式必须相同
+        T.Normalize(
+            mean=[0.5] * NUM_BANDS, std=[0.5] * NUM_BANDS)
+    ],
+    arrange=T.ArrangeSegmenter('eval'))
 
 # 分别构建训练和验证所用的数据集
 train_dataset = pdrs.datasets.SegDataset(
@@ -61,7 +68,8 @@ eval_dataset = pdrs.datasets.SegDataset(
     label_list=LABEL_LIST_PATH,
     transforms=eval_transforms,
     num_workers=0,
-    shuffle=False)
+    shuffle=False,
+    apply_im_only=True)
 
 # 构建DeepLab V3+模型,使用ResNet-50作为backbone
 # 目前已支持的模型请参考:https://github.com/PaddleCV-SIG/PaddleRS/blob/develop/docs/apis/model_zoo.md

+ 24 - 16
tutorials/train/semantic_segmentation/unet.py

@@ -29,22 +29,29 @@ pdrs.utils.download_and_decompress(seg_dataset, path=DOWNLOAD_DIR)
 # 定义训练和验证时使用的数据变换(数据增强、预处理等)
 # 使用Compose组合多种变换方式。Compose中包含的变换将按顺序串行执行
 # API说明:https://github.com/PaddleCV-SIG/PaddleRS/blob/develop/docs/apis/transforms.md
-train_transforms = T.Compose([
-    # 将影像缩放到512x512大小
-    T.Resize(target_size=512),
-    # 以50%的概率实施随机水平翻转
-    T.RandomHorizontalFlip(prob=0.5),
-    # 将数据归一化到[-1,1]
-    T.Normalize(
-        mean=[0.5] * NUM_BANDS, std=[0.5] * NUM_BANDS),
-])
+train_transforms = T.Compose(
+    [
+        # 读取影像
+        T.DecodeImg(),
+        # 将影像缩放到512x512大小
+        T.Resize(target_size=512),
+        # 以50%的概率实施随机水平翻转
+        T.RandomHorizontalFlip(prob=0.5),
+        # 将数据归一化到[-1,1]
+        T.Normalize(
+            mean=[0.5] * NUM_BANDS, std=[0.5] * NUM_BANDS)
+    ],
+    arrange=T.ArrangeSegmenter('train'))
 
-eval_transforms = T.Compose([
-    T.Resize(target_size=512),
-    # 验证阶段与训练阶段的数据归一化方式必须相同
-    T.Normalize(
-        mean=[0.5] * NUM_BANDS, std=[0.5] * NUM_BANDS),
-])
+eval_transforms = T.Compose(
+    [
+        T.DecodeImg(),
+        T.Resize(target_size=512),
+        # 验证阶段与训练阶段的数据归一化方式必须相同
+        T.Normalize(
+            mean=[0.5] * NUM_BANDS, std=[0.5] * NUM_BANDS)
+    ],
+    arrange=T.ArrangeSegmenter('eval'))
 
 # 分别构建训练和验证所用的数据集
 train_dataset = pdrs.datasets.SegDataset(
@@ -61,7 +68,8 @@ eval_dataset = pdrs.datasets.SegDataset(
     label_list=LABEL_LIST_PATH,
     transforms=eval_transforms,
     num_workers=0,
-    shuffle=False)
+    shuffle=False,
+    apply_im_only=True)
 
 # 构建UNet模型
 # 目前已支持的模型请参考:https://github.com/PaddleCV-SIG/PaddleRS/blob/develop/docs/apis/model_zoo.md