gpt4 book ai didi

swift - CoreML 模型预测不同于训练

转载 作者:搜寻专家 更新时间:2023-10-31 22:53:53 28 4
gpt4 key购买 nike

我是 Core ML 的新手,但到目前为止玩得很开心。我目前正在学习如何通过在 Playground 上创建模型并验证其结果来训练模型进行面部识别。我保存 .mlmodel 并在我的应用程序中实现它。

我的问题是,当我在 Playground 上测试它时,它似乎具有非常高的准确性,但是当我在我的应用程序环境中使用相同的图片实现相同的模型时,我得到完全不同的结果并且它几乎无法使用。

这是我从调试控制台获得的一些代码。

[<VNClassificationObservation: 0x282deff00> BFB8D19B-40AE-45F9-B979-19C11A919DBE, revision 1, 0.778162 "Others", <VNClassificationObservation: 0x282dede60> 9E9B2AC8-3969-4086-B3B0-6ED6BEDFFE71, revision 1, 0.221838 "Me"]

这里它错误地将我的图像分类为其他人,即使它在测试期间正确地将 Playground 上的相同图像分类。似乎应用程序本身运行良好,只是模型突然关闭。

我在这里错过了什么?

谢谢

最佳答案

通常,当您在 Playground 和您的应用中以不同方式加载图像时,就会发生这种情况。我要做的是确保您使用的图像在两种情况下都完全相同。不仅是图像内容,还有在将它们提供给模型之前如何加载它们。

关于swift - CoreML 模型预测不同于训练,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53246397/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com