我要參展

MediaTek聯(lián)合快手推出高效端側(cè)視頻生成技術(shù),先進生成式AI讓圖像動起來

分享:

2024年7月4日, MediaTek與快手共同宣布,推出高效端側(cè)視頻生成技術(shù),共同探索并推進生成式AI技術(shù)的革新。該技術(shù)是對2024世界移動通信大會(MWC 2024)上初次亮相的視頻生成技術(shù)的延續(xù)與提升,結(jié)合快手的AI模型I2V(image to video)Adapter與MediaTek天璣9300、天璣8300移動平臺強勁的AI算力,在端側(cè)實現(xiàn)由靜態(tài)圖像生成動態(tài)視頻的創(chuàng)新體驗。通過這項技術(shù),用戶只需在設備上選取圖片,應用即可智能地識別照片中的人物和場景,生成自然流暢的視頻佳作,顯著提升了視頻制作的創(chuàng)意表現(xiàn)和效率。

雙方的合作充分借助MediaTek天璣移動平臺先進的AI技術(shù),攜手攻克了模型底層適配優(yōu)化及上層開發(fā)的系列技術(shù)及工程難題,為用戶帶來讓人耳目一新的端側(cè)生成式AI體驗,將改變用戶創(chuàng)作和分享內(nèi)容的方式。 

I2V-Adapter是快手AI團隊提出的一種適用于基于Stable Diffusion文生視頻擴散模型的輕量級適配模塊,作為即插即用的擴散模型輕量級模塊,專門用于由圖像到視頻的生成任務。該模塊能夠在不需要改變現(xiàn)有文本到視頻生成(T2V)模型原始結(jié)構(gòu)和預訓練參數(shù)的情況下,將靜態(tài)圖像轉(zhuǎn)換成動態(tài)視頻。此外,其解耦設計使得該方案能夠與DreamBooth、LoRa、ControlNet等模塊無縫兼容,實現(xiàn)客制化和可控的圖像到視頻生成。

MediaTek天璣9300和天璣8300移動平臺集成了先進的NPU(神經(jīng)網(wǎng)絡處理單元),為生成式AI而設計,提供強勁算力和能效。在圖像生成視頻的應用中,NPU可顯著加速AI模型的運算,結(jié)合與快手I2V Adapter模型的適配和優(yōu)化,實現(xiàn)更快的視頻生成速度,同時兼具低功耗特性。天璣移動平臺可結(jié)合深度學習和實時渲染技術(shù),對圖像內(nèi)容進行深度分析,捕捉關鍵幀,并據(jù)此生成流暢、逼真的視頻畫面效果。同時,MediaTek的實時渲染技術(shù)可確保視頻在各類設備上均能帶來高畫質(zhì)表現(xiàn)。

全球短視頻市場正迎來高速增長期,行業(yè)對創(chuàng)新、高效的視頻生成技術(shù)的需求日益迫切。MediaTek與快手基于對市場需求和趨勢的深刻洞察,為廣大用戶帶來更加先進、便捷的視頻生成工具,共同推動短視頻生態(tài)的繁榮發(fā)展。未來,雙方將持續(xù)深化合作,推動生成式AI技術(shù)的進一步發(fā)展,滿足市場不斷變化的需求,共同開創(chuàng)和探索短視頻技術(shù)的新紀元。


本網(wǎng)站及其公眾號為公益性網(wǎng)絡平臺,所發(fā)圖文僅供傳播信息、介紹知識、說明問題之用;相關版權(quán)歸原作者所有,轉(zhuǎn)載請務必注明出處和作者。

稿件一經(jīng)選用,即視為作者同意本網(wǎng)免費將其使用于本網(wǎng)或與本網(wǎng)有合作關系的非贏利性各類出版物、互聯(lián)網(wǎng)與手機端媒體及專業(yè)學術(shù)文庫等。

由稿件引起的著作權(quán)問題及其法律責任由作者自行承擔。

了解更多動態(tài),請掃描二維碼,關注我們的微信公眾號: