Meta 近期公布可同時生成圖像與文字內容的人工智慧 模型 CM3Leon,標榜僅需比其他同類型模型所需訓練資料的五分之一,即可達成相同效果。
CM3Leon本身是通用型的人工智慧模型,分別可同時處理不同工作,以及包含透過文字描述生成圖像,或是透過文字描述編輯圖像,並且自動生成圖像文字說明。
而本身採前後因果隱蔽混合模型架構,能在訓練過程忽略、隱蔽特定內容,藉此產生更符合使用者預期結果。另外,CM3Leon僅使用30億組文字參數完成訓練,相比類似功能的OpenFlamingo使用多達400億組參數,以及Flamingo使用高達1000億組參數進行訓練,幾乎能達成相同執行效果。
不過,Meta並未透露是否計畫對外開放CM3Leon,可能僅作為內部應用工具為主。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》