《東方看點|SAM模型發布 關注AI視覺領域》
時間:2023-04-10
近日Meta發布AI模型Segment Anything Model(SAM模型),由于其泛化能力和數據多樣性,SAM模型能夠在零樣本的基礎上查找和分割圖像中的任意對象。
東方基金權益研究部認為,SAM與之前計算機視覺的不同點在于,計算機視覺依賴于人工標注和企業自身數據訓練,缺點是舉一反三的能力不夠強,且容易被圖像中可能存在的對象目標小、數量多和相互重疊等因素干擾,難以區分和識別對象。在Chatgpt實現了文字端的智能化之后,SAM模型的出現又進一步實現了視覺端的智能化,在沒有預訓練的情況下,SAM模型也能夠進行圖像識別和分割。而且SAM模型學會了對象通用的概念,能夠在從未識別過的圖像和視頻中分離出對象,或許代表著AI具備了視覺能力。
東方基金權益研究部認為,SAM模型意味著多模態模型在視覺領域加速發展,其對圖像處理和識別的功能有望應用于多個領域,包括安防鏡頭識別、智能駕駛識別(3D物體自動建模)、機器視覺和工業自動化、AR追蹤和內容產出、醫療影像識別、遙感衛星等,建議關注AI視覺領域的機會。
市場有風險,投資需謹慎。
|
關閉本頁 打印本頁 |