gpt4 book ai didi

tensorflow - 我可以将 deeplab 微调到 tensorflow 中的自定义数据集吗?

转载 作者:行者123 更新时间:2023-12-04 10:34:15 24 4
gpt4 key购买 nike

我想使用我自己的数据集定制用于图像分割的 deeplab 吗?这可以通过再培训来实现吗?

最佳答案

Deeplab official tutorial page ,训练命令如下所示:

python deeplab/train.py \
--logtostderr \
--training_number_of_steps=30000 \
--train_split="train" \
--model_variant="xception_65" \
--atrous_rates=6 \
--atrous_rates=12 \
--atrous_rates=18 \
--output_stride=16 \
--decoder_output_stride=4 \
--train_crop_size=513 \
--train_crop_size=513 \
--train_batch_size=1 \
--dataset="pascal_voc_seg" \
--tf_initial_checkpoint=${PATH_TO_INITIAL_CHECKPOINT} \
--train_logdir=${PATH_TO_TRAIN_DIR} \
--dataset_dir=${PATH_TO_DATASET}

通过更改 dataset_dirdataset以及 segmentation_dataset.py 中的几行,您可以在自己的数据集上进行训练。
  • dataset_dir :路径指向您的 tfrecord 文件夹 .

    在这个文件夹中,你应该有 train-%05d-of-%05d.tfrecordval-%05d-of-%05d.tfrecord创建者 build_voc2012_data.pydatasets 中的其他脚本.

    因此,如果您想使用 train.tfrecord用于训练,设置 train_splittrain ;如果要对评估数据进行评估,请设置 train_splitval .
  • dataset : 任何自定义名称,比如“donkey_monkey”
  • segmentation_dataset.py

    创建 DatasetDescriptor对于您自己的数据集:
    _DONKEY_MONKEY_INFORMATION = DatasetDescriptor(
    splits_to_sizes={
    'train': 1464, # number of training examples in train data
    'trainval': 2913, # number of examples for train+eval
    'val': 1449, # number of eval examples
    },
    num_classes=21, # note: should be number of class + background
    ignore_label=255, # label pixels to ignore
    )


    更改以下代码(第 112 行)
    _DATASETS_INFORMATION = {
    'cityscapes': _CITYSCAPES_INFORMATION,
    'pascal_voc_seg': _PASCAL_VOC_SEG_INFORMATION,
    'ade20k': _ADE20K_INFORMATION,
    'donkey_monkey': _DONKEY_MONKEY_INFORMATION, # newly added
    }

  • 关于tensorflow - 我可以将 deeplab 微调到 tensorflow 中的自定义数据集吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49915041/

    24 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com