- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
对于像 yolo 或 R-CNN 这样的算法,他们使用 anchor 框的概念来预测对象。 https://pjreddie.com/darknet/yolo/
anchor 框是在特定数据集上训练的,COCO 数据集的一个是:
anchors = 0.57273, 0.677385, 1.87446, 2.06253, 3.33843, 5.47434, 7.88282, 3.52778, 9.77052, 9.16828
最佳答案
在原YOLO或YOLOv1 ,预测是在没有对目标物体的形状做任何假设的情况下完成的。假设网络试图检测人类。我们知道,一般来说,人类适合放在一个垂直的矩形盒子里,而不是方形盒子里。然而,最初的 YOLO 试图以相等的概率检测矩形和方形框的人类。
但这效率不高,可能会降低预测速度。
所以在 YOLOv2 ,我们对物体的形状做了一些假设。这些是 anchor 盒。通常我们将 anchor 框作为一些数字的列表提供给网络,这是一系列宽度和高度对:
anchor = [0.57273, 0.677385, 1.87446, 2.06253, 3.33843, 5.47434, 7.88282, 3.52778, 9.77052, 9.16828]
在上面的例子中,(0.57273, 0.677385) 表示单个 anchor 框,其中两个元素分别是宽度和高度。也就是说,这个列表定义了 5 个不同的 anchor 框。请注意,这些值与输出大小有关。例如,YOLOv2 输出 13x13 的特征垫,您可以通过将 13 乘以 anchor 的值来获得绝对值。
使用 anchor 框使预测更快一点。但准确率可能会降低。 The paper of YOLOv2说:
Using anchor boxes we get a small decrease in accuracy. YOLO only predicts 98 boxes per image but with anchor boxes our model predicts more than a thousand. Without anchor boxes our intermediate model gets 69.5 mAP with a recall of 81%. With anchor boxes our model gets 69.2 mAP with a recall of 88%. Even though the mAP decreases, the increase in recall means that our model has more room to improve
关于computer-vision - 如何解释 Yolo 或 R-CNN 中的 anchor 框?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49403497/
我想用 Yolo 建立一个数据库,这是我第一次使用深度学习 如何为 Yolo 构建数据库并对其进行训练? 如何获得分类的权重? 对于刚接触深度学习的人来说是不是太难了? 最佳答案 是的,您可以轻松做到
我在互联网上搜索过,但发现的信息很少,我不明白 yolo 的 .cfg 中每个变量/值代表什么文件。所以我希望你们中的一些人可以提供帮助,我认为我不是唯一遇到这个问题的人,所以如果有人知道 2 或 3
我正在用 yolor 训练自定义数据集。我成功地运行了一次,但过了一段时间后,我无法很好地运行它。 我注意到的第一个错误是在训练部分: Traceback (most recent call last
我试图了解 Yolo4 的架构。 它由主干、颈部、密集预测和稀疏预测组成。 知道 Yolo 3 已经有 Backbone ,Yolo 4 是采用 Yolo 3 的所有架构,包括其 Backbone 还
I'm trying to train a yolov8 nano model with the following py script:我正试图用以下py脚本训练一个yolov8纳米模型:
我关注了this microsoft tutorial没有问题。但我想将模型更改为 yolo v3 或 v4。我从 onnx/models 获取 YOLOv4 onnx 模型并能够获得 yolov4
我关注了this microsoft tutorial没有问题。但我想将模型更改为 yolo v3 或 v4。我从 onnx/models 获取 YOLOv4 onnx 模型并能够获得 yolov4
我正在尝试在 Yolo Darknet 中使用 class ->2、filter(21) 训练我的自定义对象,收集了大约 5000 张大小 (1106x620) 的图像,设置学习率 .01 批处理是
我正在使用来自 AlexeyAB's fork of Darknet 的 YOLOv3 和 YOLOv3-Tiny .我知道图像大小必须是 32 的倍数。而且 batch除以 subdivisions
关闭。这个问题需要多问focused 。目前不接受答案。 想要改进此问题吗?更新问题,使其仅关注一个问题 editing this post . 已关闭 4 年前。 Improve this ques
感谢您阅读我的问题。我使用谷歌colab。我需要 yad2k 库。也许这不支持pip。 有人成功安装yad2k吗? ImportError Traceback(最近一次调用最后一次) 在 () 13
我正在使用 YOLO 进行机器学习项目。我正在按照找到的指南创建自己的数据集 here (在如何训练(检测您的自定义对象)部分)。对于边界框,我需要知道我想在给定图片中训练 YOLO 的每个对象的 [
我在 coursera 中完成了深度学习特化的 YOLO 作业,它按照作业要求预测了 test.jpg 上的框。但后来我从官方 darknet 网站下载了 yolo.weights 并将其转换为 .h
我目前正在主分支 (https://github.com/AlexeyAB/darknet) 上使用 AlexeyAB 的 linux 版本在 Darknet YOLO 上进行训练, map /图表不
我想在暗网 YOLOv3 上获取边界框坐标(如 xmin、xmax、ymin、ymax)我尝试了一些方法,但是当我在更改代码后编译程序时,我看不到任何差异。 如何找到 Darknette 的边界框坐标
当我阅读 YOLO 论文时,它说它使用 K-means 制作 anchor 框。然而,当我看到实现这个的代码时,它似乎修复了 anchor 大小,如下所示。我希望你描述它的确切含义或指出我对此的误解。
目前我正在使用一种名为“Yolov2”的深度学习模型进行对象检测,我想用它来提取文本并将其保存在磁盘中,但我不知道该怎么做,如果有人知道更多关于那个,请给我建议 我使用 Tensorflow 谢谢 最
我有多个图像图表,所有这些图表都包含作为字母数字字符的标签,而不仅仅是文本标签本身。我希望我的 YOLO 模型能够识别其中存在的所有数字和字母数字字符。 我如何训练我的 YOLO 模型来做同样的事情。
我正在尝试为 YOLO/Darknet 中的一些图像手动创建标签文件,我需要为边界框填写一些值。 来自 YOLO 网站(https://pjreddie.com/darknet/yolo/): Now
我正在尝试在 Darknet YOLO v2 中训练自定义对象分类器 https://pjreddie.com/darknet/yolo/ 我收集了一个图像数据集,其中大多数尺寸为 6000 x 40
我是一名优秀的程序员,十分优秀!