赞
踩
首先通过特征提取网络对输入图像提取特征,得到一定大小的特征图,比如 13x13(相当于416x416 图片大小),然后将输入图像分成 13x13 个 grid cells:
预测得到的输出特征图有两个维度是提取到的特征的维度,比如 13x13,还有一个维度(深度)是 Bx(5+C),其中:
总的损失函数:
L o s s = α × C l a s s i f i c a t i o n L o s s + β × L o c a l i z a t i o n L o s s + γ × C o n f i d e n c e L o s s \rm Loss = \alpha \times Classification Loss + \beta \times Localization Loss + \gamma \times Confidence Loss Loss=α×ClassificationLoss+β×LocalizationLoss+γ×ConfidenceLoss
Netron 对 .pt
格式的兼容性不好,直接打卡无法显示整个网络。因此我们可以使用 YOLOv5 中的 models/export.py
脚本将 .pt
权重转换为 .onnx
格式,再使用 Netron 打开就可以完整地查看 YOLOv5 的整体架构了。
python export.py \
--weights weights/yolov5s.pt \
--imgsz 640 \
--batch-size 1 \
--device cpu \
--simplify \
--include onnx
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/代码探险家/article/detail/806807
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。