Runway上線多重「運(yùn)動筆刷」功能丨騰訊、百度發(fā)布自研視頻生成模型丨科大訊飛1月30日發(fā)布星火大模型V3.5
AI奇點(diǎn)網(wǎng)2024年1月22日報(bào)道丨AI資訊早報(bào)
當(dāng)?shù)貢r(shí)間1月19日,AI視頻生產(chǎn)創(chuàng)作平臺Runway宣布,旗下的Gen-2模型中的運(yùn)動筆刷(Motion Brush)功能將升級為多重運(yùn)動筆刷(Multi Motion Brush)。該公司成功解決了在同一個(gè)畫面內(nèi)實(shí)現(xiàn)獨(dú)立控制視多個(gè)區(qū)域的物體運(yùn)動,讓不同的物體、對象內(nèi)容分別展開不同的運(yùn)動形勢。
使用方法很簡單,用戶可以控制多達(dá)5個(gè)運(yùn)動筆刷,針對畫面內(nèi)的物體進(jìn)行簡單涂刷,讓畫面呈現(xiàn)更加豐富的運(yùn)動表達(dá)形式。該功能目前處于Beta測試階段,可以在免費(fèi)帳戶中進(jìn)行體驗(yàn)。
1月18日,騰訊AI實(shí)驗(yàn)室發(fā)布了視頻生成模型VideoCrafter2,相關(guān)論文同日也已經(jīng)發(fā)表。該模型研究了利用低質(zhì)量視頻和合成高質(zhì)量圖像獲得高質(zhì)量視頻模型的可行性,通過使用高質(zhì)量圖像對空間模塊進(jìn)行微調(diào),在不降低運(yùn)動質(zhì)量的情況下,將分布轉(zhuǎn)移到更高質(zhì)量的視頻上,克服了高質(zhì)量視頻擴(kuò)散模型的數(shù)據(jù)限制。
項(xiàng)目主頁:
1月18日,百度的AIGC研發(fā)團(tuán)隊(duì)發(fā)布了視頻生成模型UniVG,這是一種統(tǒng)一模式視頻生成系統(tǒng),能夠以文本和圖像的任意組合作為輸入。團(tuán)隊(duì)將系統(tǒng)內(nèi)視頻生成模型的多個(gè)任務(wù),重新劃分為高自由度生成和低自由度生成兩類,并針對不同自由度采用不同的生成方式。
項(xiàng)目主頁:
1月20日,科大訊飛在基于算力底座“飛星一號”平臺的訊飛星火認(rèn)知大模型V3.5目前已經(jīng)完成訓(xùn)練,相比V3.0版本,新版本在邏輯推理、文本生成、數(shù)學(xué)答題及小樣本學(xué)習(xí)能力等方面大幅提升??拼笥嶏w宣布,將在1月30日下午2點(diǎn)舉辦訊飛星火認(rèn)知大模型V3.5升級的發(fā)布會,屆時(shí)將在科大訊飛視頻號等多個(gè)平臺在線直播。
據(jù)悉,訊飛星火認(rèn)知大模型V3.5完全基于全國產(chǎn)化的算力底座“飛星一號”平臺,“飛星一號”由科大訊飛與華為共同研發(fā),目前已完成大模型的訓(xùn)練。
據(jù)The Verge今日報(bào)道,TikTok目前正在測試AI生成歌曲功能AI Song,由大型語言模型Bloom提供支持。用戶發(fā)布視頻時(shí),直接在提示詞的文本框中寫入歌詞,AI Song功能將會針對生成“文生音頻”的歌曲,并且用戶可以自由切換歌曲的流派來改變曲風(fēng)。
部分官方邀請的內(nèi)測博主已經(jīng)提前嘗鮮,目前該功能仍未向所有用戶開放,目前它似乎還存在人聲跑調(diào)等問題,據(jù)部分內(nèi)測用戶反饋,AI生成的歌曲人聲聽上去有些走音。
近期,針對網(wǎng)上傳聞的“微軟計(jì)劃關(guān)閉微軟亞洲研究院”的路邊社消息,微軟全球資深副總裁、微軟研究院負(fù)責(zé)人Peter Lee在推特上回應(yīng)稱,目前沒有關(guān)于關(guān)閉微軟亞洲研究院的討論或主張。
“我們一如既往地支持微軟亞洲研究院及其世界級的研究工作,對未來的研究計(jì)劃充滿期待。”微軟公司總裁兼董事會副主席Brad Smith則強(qiáng)調(diào),“歷史的經(jīng)驗(yàn)表明,從世界范圍內(nèi)汲取思想才能夠獲得成功。‘護(hù)欄’與‘把控’固然重要,而‘參與’的重要性同樣不容忽視。”
此外,據(jù)外媒了解,微軟研究院也在溫哥華成立了新的研究中心,并在持續(xù)對外擴(kuò)招人才。