如何假装你懂Meta Segment Anything?

最近感觉不学点AI就要不会聊天了,前有ChatGPT,后有Midjourney/Stable Diffusion/Dalle2,现在又有Meta(Facebook)的SAM(Segment Anything Model)出现,如果说OpenAI的ChatGPT开启了语言模型的新纪元,那么Meta的SAM则是开启了计算机视觉的新纪元。

SAM是一个计算机视觉(CV)模型,可以快速识别图像甚至视频中的物体,快速进行图像分割(image segmentation,即确定图像/视频中物体的边界),其速度及准确度都令人叹为观止,同时Meta透露SAM还支持通过prompt的方式与用户交互。没有试过的小伙伴可以去SAM的官方网站https://segment-anything.com/试试,点击该网页左下方的Try Demo即可(不过Demo中似乎并没有提供prompt功能?)。

Meta(Facebook)的FAIR人工智能实验室有包括Yann LeCun在内的等等AI大神坐镇,前不久刚刚发布类似ChatGPT的大语言模型LLaMA,4月5号发布的SAM更是被认为是计算机视觉的划时代进步。

这里我画了一张关于SAM基本信息的思维导图,帮助你在午餐时间和同事有个逼格拔群的话题,hope you find it informative!

对了,如果有小伙伴还没试用过ChatGPT,我搭了一个小跳板,关注下面公众号“后厂村思维导图馆”,私信留言索要

 

posted @ 2023-04-18 10:07  后厂村思维导图馆  阅读(334)  评论(0编辑  收藏  举报