ios - coreML 打包图像文件夹和 css 文件
问题描述
机器学习和 coreML 的新手,我想知道如何创建我们自己的混合图像文件夹和 csv 文件的模型。
图像文件夹如下:
images
|_ 1.jpg
|_ 2.jpg
|_ 3.jpg
|_ 4.jpg
而css文件将是:
filename,width,height,class,xmin,ymin,xmax,ymax
1.jpg,2048,1251,dog,706,513,743,562
2.jpg,1600,980,cat,715,157,733,181
3.jpg,2828,1828,cat,460,1530,482,1557
4.jpg,1276,1754,dog,846,517,878,563
通过这个,我想创建一个模型,它可以识别输入图像是猫还是狗,还可以识别动物的位置。
有什么办法可以做到这一点吗?
解决方案
Core ML 不能用于训练模型。您可以使用 Turi Create 训练对象检测器,这需要不同的文件格式,或者使用任何其他训练包(在这种情况下,您可以使用任何您想要的格式)。
推荐阅读
- influxdb - kapacitor批处理中的派生节点
- arrays - Yii2 ArrayHelper 显示父类
- javascript - 如何使用 node 和 express 在 shopify 应用程序前端获取当前商店详细信息
- php - 如果数据是阿拉伯语,则在 ajax 函数中获取字母“a”
- amazon-s3 - QNAP 备份到 s3
- r - 如何修改ggplot2中的堆积条形图使其发散
- c# - ASP.NET Core 在调试时读取内容文件
- python - 在 simpy 中按计划生成客户
- python-3.x - tesseract 输出与输入图像不同
- python - 为什么 pip 在本地与 docker 容器中的行为不同?