欧美一级日韩一级|欧美亚洲国产精品久久高清|久久久久久久久网站|精品国产一区二区三区19|欧美性受xxxx狂喷水

Internet Develppment
互聯(lián)網(wǎng)開(kāi)發(fā)& 推廣服務(wù)提供商

我們擅長(cháng)商業(yè)策略與用戶(hù)體驗的完美結合。

歡迎瀏覽我們的案例。

首頁(yè) > 新聞中心 > 新聞動(dòng)態(tài) > 正文

Meta 發(fā)布 SAM 2 AI 統一模型:在圖片和視頻中實(shí)時(shí)分割對象

發(fā)布時(shí)間:2024-07-30 10:17:13來(lái)源: IT之家

  IT之家 7 月 30 日消息,Meta 公司發(fā)布 Meta Segment Anything Model 2(SAM2),SAM 2 能分割任何目標,能在一個(gè)視頻中實(shí)時(shí)追蹤所有鏡頭 —— 解鎖新的視頻編輯能力并在混合現實(shí)中提供新的體驗。

  

 

  Meta 公司今天發(fā)布新聞稿,介紹了全新的 Meta Segment Anything Model 2(SAM 2)模型,先支持分割視頻和圖像中的對象。

  開(kāi)源

  Meta 公司宣布將以 Apache 2.0 許可發(fā)布 SAM 2,因此任何人都可以使用它來(lái)構建自己的體驗。

  Meta 還將以 CC BY 4.0 許可共享用于構建 SAM 2 的數據集 SA-V,并發(fā)布基于網(wǎng)絡(luò )的演示體驗,所有人都可以在其中試用 Meta 的模型版本。

  對象分割

  對象分割(Object segmentation)是指識別圖像中與感興趣物體相對應的像素,是計算機視覺(jué)領(lǐng)域的一項基本任務(wù)。

  

 

  Meta 公司去年發(fā)布了 SAM 1 基礎模型,已經(jīng)可以在圖像上分割對象。而最新發(fā)布的 SAM 2 可用于圖片和視頻,并可以實(shí)現實(shí)時(shí)、可提示的對象分割。

  SAM 2 在圖像分割準確性方面超越了以往的能力,在視頻分割性能方面優(yōu)于現有成果,同時(shí)所需的交互時(shí)間減少了三倍。

  SAM 2 還可以分割任何視頻或圖像中的任何對象(通常稱(chēng)為零鏡頭泛化),這意味著(zhù)它可以應用于以前未見(jiàn)過(guò)的視覺(jué)內容,而無(wú)需進(jìn)行自定義調整。

  IT之家附上參考地址

最新資訊
? 2018 河北碼上網(wǎng)絡(luò )科技有限公司 版權所有 冀ICP備18021892號-1   
? 2018 河北碼上科技有限公司 版權所有.
欧美一级日韩一级|欧美亚洲国产精品久久高清|久久久久久久久网站|精品国产一区二区三区19|欧美性受xxxx狂喷水