最近心血来潮,朋友勾的我学大模型,可是这个赛道太卷了呀,rag迟迟落不了地,微调这个事情自己又觉得太慢,至于chat部分我则完全不感兴趣。
帮朋友搞定了OpenWebUI的单点登录之后,兴趣缺缺。
突然翻到宇树机器人的3D扫描生成点云,对视觉识别这个事情上心了,感觉比rag好玩。
开始查资料,各种翻,读了大概三天文档,开干。
以上是碎碎念的背景。
————————————————————————————
视觉识别嘛,当然就绕不开yolo了,备注:网上基于yolo8的应用不少,据说yolo5对小物品的识别效果反而比yolo11好,暂且记下。
yolo官方文档如下:
快速入门:https://docs.ultralytics.com/zh/quickstart/
命令行cli界面:https://docs.ultralytics.com/zh/usage/cli/
YOLO 命令行界面 (CLI) 允许使用简单的单行命令,而无需Python 环境。CLI 不需要定制或Python 代码。您只需使用 yolo命令即可。
若要进行体验,而不需要工程化,使用yolo命令行即可,简直太开心了。
我又是个比较懒的人,不想使用本地环境安装python等就想快速体验,于是使用docker版进行体验。
开始,
先说我的环境,i7 老型号的think pad笔记本,32G内存。
第一步:安装 Docker Windows,不在此处赘述。
第二步:下载对应的镜像
docker pull ultralytics/ultralytics:latest
第三部:运行容器
guide里面有专门写怎么使用docker cpu / gpu,我只有cpu。
将测试图片放入D:\Bob\yolo\test\images,映射到容器的/d/Bob/yolo/test/images,
docker run -it --ipc=host -v D:\Bob\yolo\test\images:/d/Bob/yolo/test/images ultralytics/ultralytics:latest
接下来跑第一个官方demo了,
cd /d/Bob/yolo/test/images
yolo detect predict model=yolo11n.pt source='https://ultralytics.com/images/bus.jpg'
运行结果如下:
预测结果放到了容器内的/ultralytics/runs/detect/predict目录,可以看到该目录下有一个文件bus.jpg
从容器内将该文件拷贝到本地进行查看
docker cp lucid_northcutt:/ultralytics/runs/detect/predict/bus.jpg D:\Bob\yolo\test\results\bus.jpg
可以看到运行结果啦:
原图
结果图
运行了标准图片之后,接下来测试自己的图片
网图侵删
yolo detect predict model=yolo11n.pt source=1.jpg
Results saved to /ultralytics/runs/detect/predict2
拷贝,结果图如下:
yes...
跑批处理
yolo detect predict model=yolo11n.pt source=./*
拷贝至本地目录
docker cp lucid_northcutt:/ultralytics/runs/detect/predict5 D:\Bob\yolo\test\results\
本篇到此结束。
下一篇开始标注并训练模型吧。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
· 地球OL攻略 —— 某应届生求职总结
· 提示词工程——AI应用必不可少的技术
· Open-Sora 2.0 重磅开源!
· 字符编码:从基础到乱码解决
2017-01-06 scp 上传文件到多个服务器节点