如何假装你懂Meta Segment Anything?
最近感觉不学点AI就要不会聊天了,前有ChatGPT,后有Midjourney/Stable Diffusion/Dalle2,现在又有Meta(Facebook)的SAM(Segment Anything Model)出现,如果说OpenAI的ChatGPT开启了语言模型的新纪元,那么Meta的SAM则是开启了计算机视觉的新纪元。
SAM是一个计算机视觉(CV)模型,可以快速识别图像甚至视频中的物体,快速进行图像分割(image segmentation,即确定图像/视频中物体的边界),其速度及准确度都令人叹为观止,同时Meta透露SAM还支持通过prompt的方式与用户交互。没有试过的小伙伴可以去SAM的官方网站https://segment-anything.com/试试,点击该网页左下方的Try Demo即可(不过Demo中似乎并没有提供prompt功能?)。
Meta(Facebook)的FAIR人工智能实验室有包括Yann LeCun在内的等等AI大神坐镇,前不久刚刚发布类似ChatGPT的大语言模型LLaMA,4月5号发布的SAM更是被认为是计算机视觉的划时代进步。
这里我画了一张关于SAM基本信息的思维导图,帮助你在午餐时间和同事有个逼格拔群的话题,hope you find it informative!
(对了,如果有小伙伴还没试用过ChatGPT,我搭了一个小跳板,关注下面公众号“后厂村思维导图馆”,私信留言索要)
关注作者:欢迎扫码关注公众号「后厂村思维导图馆」,获取本人自建的免费ChatGPT跳板地址,长期有效。 原文链接:https://www.cnblogs.com/morvenhuang/p/17328601.html 版权声明:本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须在文章页面给出原文链接,否则保留追究法律责任的权利。 |