如何假装你懂Meta Segment Anything?

时间:2023-04-18 10:36:12 来源: 博客园



(资料图)

最近感觉不学点AI就要不会聊天了,前有ChatGPT,后有Midjourney/Stable Diffusion/Dalle2,现在又有Meta(Facebook)的SAM(Segment Anything Model)出现,如果说OpenAI的ChatGPT开启了语言模型的新纪元,那么Meta的SAM则是开启了计算机视觉的新纪元。

SAM是一个计算机视觉(CV)模型,可以快速识别图像甚至视频中的物体,快速进行图像分割(image segmentation,即确定图像/视频中物体的边界),其速度及准确度都令人叹为观止,同时Meta透露SAM还支持通过prompt的方式与用户交互。没有试过的小伙伴可以去SAM的官方网站https://segment-anything.com/试试,点击该网页左下方的Try Demo即可(不过Demo中似乎并没有提供prompt功能?)。

Meta(Facebook)的FAIR人工智能实验室有包括Yann LeCun在内的等等AI大神坐镇,前不久刚刚发布类似ChatGPT的大语言模型LLaMA,4月5号发布的SAM更是被认为是计算机视觉的划时代进步。

这里我画了一张关于SAM基本信息的思维导图,帮助你在午餐时间和同事有个逼格拔群的话题,hope you find it informative!

对了,如果有小伙伴还没试用过ChatGPT,我搭了一个小跳板,关注下面公众号“后厂村思维导图馆”,私信留言索要

关键词:


关于我们 加入我们 广告服务 网站地图

All Rights Reserved, Copyright 2004-2022 www.yunxinxi.cn

如有意见请与我们联系 邮箱:317 493 128 @qq.com

粤ICP备2022077823号-5    信息网 版权所有