展會信息港展會大全

阿里34篇論文入選國際頂會CVPR 2024,Animate Anyone、EMO等模型亮相
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-06-26   瀏覽:549次  

導讀:近日,國際計算機視覺頂會CVPR 2024在西雅圖召開,阿里共34篇論文被收錄,其中有6篇入選Highlight和Oral Paper,被收錄論文研究方向涵蓋多模態(tài)模型、圖像編輯及可控視頻生成等前沿領(lǐng)域。早些時候火遍國內(nèi)外的Animate Anyone、EMO、Facechain等模型 ......

近日,國際計算機視覺頂會CVPR 2024在西雅圖召開,阿里共34篇論文被收錄,其中有6篇入選Highlight和Oral Paper,被收錄論文研究方向涵蓋多模態(tài)模型、圖像編輯及可控視頻生成等前沿領(lǐng)域。早些時候火遍國內(nèi)外的Animate Anyone、EMO、Facechain等模型也在會議現(xiàn)場亮相,并吸引了大量參會人員的關(guān)注與體驗。

阿里34篇論文入選國際頂會CVPR 2024,Animate Anyone、EMO等模型亮相

CVPR是計算機視覺領(lǐng)域最頂級的學術(shù)會議,每年都有大量企業(yè)、研究機構(gòu)和高校參會,過去十幾年曾誕生了ResNet、ImageNet等極具影響力的研究成果。據(jù)統(tǒng)計,今年CVPR共提交了 11532 份論文,最終2719 篇被接收,接受率只有23.6%,為近4年最低,而Highlight和Oral的占比僅為11.9%和3.3%。

在阿里通義實驗室的Highlight論文《SCEdit: Efficient and Controllable Image Diffusion Generation via Skip Connection Editing 》中,研究團隊提出了一種全新的圖像擴散生成框架 SCEdit,它引入了全新的SC-Tuner的輕量級微調(diào)模塊,通過對原始模型進行細微的調(diào)整,大幅度降低了訓練參數(shù)量、內(nèi)存消耗和計算開銷。實驗結(jié)果顯示,SCEdit可快速遷移到特定的生成場景中,相比LoRA節(jié)省30%-50%的訓練顯存開銷,可應用于邊緣圖、深度圖、分割圖、姿態(tài)、顏色圖、圖像補全等條件生成任務。目前相關(guān)代碼及微調(diào)模型均已開源。

阿里34篇論文入選國際頂會CVPR 2024,Animate Anyone、EMO等模型亮相

會議現(xiàn)場,阿里首次在海外展示了基于Animate Anyone和EMO打造的大模型應用,吸引了來自全球各地參會者體驗。過去半年,這兩個項目在Github上累計獲得超20k的Star,是視頻生成領(lǐng)域的標桿項目。

據(jù)介紹,目前通義大模型家族已擁有文本生成、圖像生成、視頻生成、圖像理解等全模態(tài)能力。不久前開源的Qwen2-72B是全球性能最強的開源模型,性能超過美國最強的開源模型Llama3-70B,也超過文心4.0、豆包pro、混元pro等眾多中國閉源大模型。

贊助本站

相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港