- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在使用 Google API for object detection在 tensorflow 中训练和推断自定义数据集。
我想调整配置文件的参数以更好地适应我的样本(例如区域提议的数量、ROI bbox 的大小等)。
为此,我需要知道每个参数的作用。
不幸的是,配置文件(找到 here )没有注释或解释。
一些,例如“num classes”是不言自明的,但其他的则很棘手。
我找到了 this file有更多评论,但无法将其“翻译”为我的格式。
我想知道以下其中一项:
1. google API config文件各参数说明
或者
2.从官方的faster-rcnn'翻译'到google的API配置
或者至少
3. 对faster-rcnn的参数技术细节进行了彻底的审查(官方文章没有提供所有细节)
谢谢你的热心帮助 !
配置文件示例:
# Faster R-CNN with Resnet-101 (v1) configuration for MSCOCO Dataset.
# Users should configure the fine_tune_checkpoint field in the train config as
# well as the label_map_path and input_path fields in the train_input_reader and
# eval_input_reader. Search for "PATH_TO_BE_CONFIGURED" to find the fields that
# should be configured.
model {
faster_rcnn {
num_classes: 90
image_resizer {
keep_aspect_ratio_resizer {
min_dimension: 600
max_dimension: 1024
}
}
feature_extractor {
type: 'faster_rcnn_resnet101'
first_stage_features_stride: 16
}
first_stage_anchor_generator {
grid_anchor_generator {
scales: [0.25, 0.5, 1.0, 2.0]
aspect_ratios: [0.5, 1.0, 2.0]
height_stride: 16
width_stride: 16
}
}
first_stage_box_predictor_conv_hyperparams {
op: CONV
regularizer {
l2_regularizer {
weight: 0.0
}
}
initializer {
truncated_normal_initializer {
stddev: 0.01
}
}
}
first_stage_nms_score_threshold: 0.0
first_stage_nms_iou_threshold: 0.7
first_stage_max_proposals: 300
first_stage_localization_loss_weight: 2.0
first_stage_objectness_loss_weight: 1.0
initial_crop_size: 14
maxpool_kernel_size: 2
maxpool_stride: 2
second_stage_box_predictor {
mask_rcnn_box_predictor {
use_dropout: false
dropout_keep_probability: 1.0
fc_hyperparams {
op: FC
regularizer {
l2_regularizer {
weight: 0.0
}
}
initializer {
variance_scaling_initializer {
factor: 1.0
uniform: true
mode: FAN_AVG
}
}
}
}
}
second_stage_post_processing {
batch_non_max_suppression {
score_threshold: 0.0
iou_threshold: 0.6
max_detections_per_class: 100
max_total_detections: 300
}
score_converter: SOFTMAX
}
second_stage_localization_loss_weight: 2.0
second_stage_classification_loss_weight: 1.0
}
}
train_config: {
batch_size: 1
optimizer {
momentum_optimizer: {
learning_rate: {
manual_step_learning_rate {
initial_learning_rate: 0.0003
schedule {
step: 0
learning_rate: .0003
}
schedule {
step: 900000
learning_rate: .00003
}
schedule {
step: 1200000
learning_rate: .000003
}
}
}
momentum_optimizer_value: 0.9
}
use_moving_average: false
}
gradient_clipping_by_norm: 10.0
fine_tune_checkpoint: "PATH_TO_BE_CONFIGURED/model.ckpt"
from_detection_checkpoint: true
# Note: The below line limits the training process to 200K steps, which we
# empirically found to be sufficient enough to train the pets dataset. This
# effectively bypasses the learning rate schedule (the learning rate will
# never decay). Remove the below line to train indefinitely.
num_steps: 200000
data_augmentation_options {
random_horizontal_flip {
}
}
}
train_input_reader: {
tf_record_input_reader {
input_path: "PATH_TO_BE_CONFIGURED/mscoco_train.record"
}
label_map_path: "PATH_TO_BE_CONFIGURED/mscoco_label_map.pbtxt"
}
eval_config: {
num_examples: 8000
# Note: The below line limits the evaluation process to 10 evaluations.
# Remove the below line to evaluate indefinitely.
max_evals: 10
}
eval_input_reader: {
tf_record_input_reader {
input_path: "PATH_TO_BE_CONFIGURED/mscoco_val.record"
}
label_map_path: "PATH_TO_BE_CONFIGURED/mscoco_label_map.pbtxt"
shuffle: false
num_readers: 1
num_epochs: 1
}
最佳答案
我发现了两个可以阐明配置文件的来源:
1.文件夹protos在 tensorflow github 中涵盖了所有配置选项,并对每个选项进行了一些注释。您应该检查 fast_rcnn.proto , eval.proto 和 train.proto 以获得最常见的
2. This Algorithmia 的博客文章彻底涵盖了在 Google 的 Open Images 数据集上下载、准备和训练更快的 RCNN 的所有步骤。 2/3-way through,有一些关于配置选项的讨论。
关于tensorflow - tensorflow中的faster-rcnn配置文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48382398/
RCNN Mask 检测人添加边界框和形状近似,我的目标是只获得这些 如何仅从 RCNN Mask 获得形状近似和边界框? 最佳答案 假设您有一个带有对象掩码的 NumPy 数组列表,您可以尝试 sc
我正在尝试运行 Py-Faster-RCNN 来解决 2 类问题,比如 obj1 和 obj2。 我已将数据存储为 Pascal 格式。 我还将 caffe 定义的最后一层中的输出数量更改为 3(即
我正在尝试使用掩码 rcnn 运行 TF 对象检测,但它在具有 500GB 内存的节点上不断死亡。 我将models/research/object_detection/trainer.py Conf
我正在使用 Tensorflow 和 faster_rcnn_inception_v2_coco 模型训练对象检测器,但在对视频进行分类时遇到了很多误报。 经过一些研究,我发现我需要在训练过程中添加负
我正在使用Ubuntu 14.04操作系统的g2.8xlarge EC-2实例上启用cuDNN的情况下运行py-faster-rcnn。一切都已编译,似乎工作正常。我通过以下方式登录到远程实例: ss
我正在 INRIA Person 数据集上训练 Faster-RCNN(VGG-16 架构)。我接受了 180,000 个训练步骤的训练。但是当我评估网络时,它会用相同的图像给出不同的结果。以下是图片
我正在尝试使用 RCNN 在我自己的数据集上执行对象检测,遵循 the tutorial on Matlab webpage .基于下图: 我应该将图像路径放在第一列中,将每个对象的边界框放在后面的列
我按照本教程进行对象检测: https://pytorch.org/tutorials/intermediate/torchvision_tutorial.html 及其包含以下 train_one_
我正在尝试在自定义数据集上训练 Mask RCNN 模型。我用于测试的数据集是来自 https://github.com/experiencor/kangaroo 的袋鼠数据集。我基本上是在遵循这个例
我正在研究使用 PyTorch 进行文本分类的 RCNN 实现。 Full Code .有两点使用 permute 函数置换张量的维度。第一个是在 LSTM 层之后和 tanh 之前。第二个是在线性层
我正在使用 Matterport 存储库在自定义数据集上训练 MASK RCNN。我在训练中取得了成功。现在我想保存经过训练的模型并在 Web 应用程序中使用它来检测对象。训练后如何保存mask rc
论文中已经明确提到 分类和回归 损失与 Faster RCNN 中的 RPN 网络相同。有人可以解释一下 Mask Loss 函数吗?使用FCN如何改进? 最佳答案 FCN 使用每像素 softmax
我目前正在使用从 pytorch 预训练的 Faster-RCNN 模型(如在 torchvision tutorial 中)的迁移学习在自定义数据集上进行对象检测。 我想在每个时期结束时计算验证损失
有人实现了 FRCNN for TensorFlow 版本吗?我找到了一些相关的仓库如下: Implement roi pool layer Implement fast RCNN based on
关闭。这个问题不满足Stack Overflow guidelines .它目前不接受答案。 想改善这个问题吗?更新问题,使其成为 on-topic对于堆栈溢出。 上个月关闭。 Improve thi
我一直在玩Fast-RCNN一段时间,但仍然无法获得一些核心机制。 在教程幻灯片(http://tutorial.caffe.berkeleyvision.org/caffe-cvpr15-detec
我正在尝试理解快速(呃)RCNN,以下是我正在寻找的问题: 为了训练 FastRcnn 模型,我们是否必须给出边界框训练阶段的信息。 如果您必须提供接线盒信息,那么它的作用是什么ROI 层。 我们可以
我正在使用 fast-rcnn 并尝试为新类(标签)训练系统我跟着这个:https://github.com/EdisonResearch/fast-rcnn/tree/master/help/tra
我希望只使用一个类,人(连同 BG,背景)来进行 Mask RCNN 对象检测。我正在使用此链接:https://github.com/matterport/Mask_RCNN运行掩码 rcnn。有没
我正在看论文 https://research.fb.com/wp-content/uploads/2017/08/maskrcnn.pdf来自 Facebook 研究。 Mask RCNN 基于检测
我是一名优秀的程序员,十分优秀!