IT之家 7 月 17 日消息,香港科技大學(xué)團隊開發(fā)出一款名為 Semantic-SAM 的圖像分割 AI 模型,相比 Meta 此前發(fā)布的 SAM 模型,Semantic-SAM 具有更強的粒度和語義功能,能夠在不同粒度級別上分割和識別物體,并為分割出的實體提供語義標簽。
據(jù)悉,Semantic-SAM 基于 Mask DINO 框架進行開發(fā),其模型結(jié)構(gòu)主要改進在 decoder 部分,同時支持通用分割和交互式分割。
研究團隊通過采用解耦的物體分類和部件分類方法,學(xué)習(xí)物體和部件的語義信息,從而實現(xiàn)了多粒度分割任務(wù)和交互分割任務(wù)的優(yōu)化。實驗結(jié)果表明,Semantic-SAM 在分割質(zhì)量和粒度可控性方面優(yōu)于 Meta 的 SAM 模型。
該項目目前已經(jīng)在 GitHub 中發(fā)布,論文也同時上傳至 ArXiv 中,有興趣的IT之家小伙伴們可以前往查看。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。