最近,Adobe 發(fā)布了視頻超分項目 VideoGigaGAN。從演示效果來看相當牛批,支持8倍視頻放大,可以適應(yīng)不同風格的視頻。
詳細介紹: 該模型能夠生成既保持時間連貫性又具有高頻細節(jié)的視頻。VideoGigaGAN基于一個先進的大規(guī)模圖像放大模型GigaGAN進行設(shè)計和優(yōu)化。 如果簡單地將GigaGAN擴展為視頻處理模型,并增加處理時間信息的模塊,會引起視頻中的嚴重閃爍問題。為解決這一問題,我們識別并改進了幾個關(guān)鍵技術(shù)點,顯著提升了視頻的時間穩(wěn)定性。 通過在公開數(shù)據(jù)集上與其他先進的VSR模型對比,并展示8倍超分辨率的視頻效果,我們驗證了VideoGigaGAN的高效性。
項目地址:https://videogigagan.github.io/
好消息啊!4月27日,在2024中關(guān)村論壇-未來人工智能先鋒論壇上,清華大學聯(lián)合生數(shù)科技正式發(fā)布了,中國首個長時間、高一致性、高動態(tài)性視頻大模型——Vidu。
大家期待已久的國產(chǎn)大模型,這不就來了嗎?
Vidu采用了原創(chuàng)的Diffusion與Transformer融合架構(gòu)U-ViT,能夠支持文本生成長達16秒、分辨率高達1080P的高清視頻內(nèi)容。
Vidu不僅能夠模擬真實物理世界,還具備豐富想象力,具備多鏡頭生成、時空一致性高等技術(shù)特點。這也是繼Sora發(fā)布之后,全球率先取得重大突破的視頻大模型,性能全面對標國際頂尖水平,并加速功能迭代中。
現(xiàn)在已經(jīng)開放試用了,還不趕緊來試一試?
試用地址:https://www.shengshu-ai.com/home?ref=maginative.com
給大家推薦一個 AI 知識系統(tǒng)學習的Datawhale,Datawhale是一個致力于人工智能教育的組織,旨在幫助學習者通過實踐項目來掌握AI相關(guān)的知識和技能,也提供論壇便于大家交流學習心得!
以下是網(wǎng)站內(nèi)容的概述:Datawhale官網(wǎng)
- AI學習起點:Datawhale鼓勵每個人學習和探索人工智能,以共同塑造和掌握AI的未來。 - 學習路徑:網(wǎng)站提供了多個學習路徑,包括數(shù)據(jù)分析、計算機視覺、自然語言處理和推薦系統(tǒng)等,以幫助學習者系統(tǒng)地學習AI領(lǐng)域的知識。 - 大模型應(yīng)用開發(fā):Datawhale提供了面向小白開發(fā)者的大模型應(yīng)用開發(fā)教程,結(jié)合個人知識庫助手項目,教授大模型開發(fā)的重點入門知識。 - LLM入門課程:這是一個面向開發(fā)者的LLM(Large Language Models)入門教程,基于吳恩達老師的大模型系列課程內(nèi)容,提供中文翻譯和范例代碼,指導開發(fā)者如何基于LLM開發(fā)應(yīng)用程序。 - GPT - Prompt教程:Datawhale設(shè)計了GPT - Prompt教程,旨在幫助學習者更好地利用GPT等工具提高學習和工作效率。 - 南瓜書 PumpkinBook:這是一本開源協(xié)作學習筆記,作為周志華《機器學習》的伴侶書,旨在幫助初學者提升數(shù)學基礎(chǔ)能力。 - Joyful-Pandas:這個教程涵蓋了pandas庫的所有核心操作與特性,分為基礎(chǔ)知識、操作和數(shù)據(jù)三大模塊。 - fantastic-matplotlib:關(guān)于Matplotlib的數(shù)據(jù)可視化教程,Matplotlib是Python中重要的數(shù)據(jù)可視化工具,本教程適合需要進行數(shù)據(jù)可視化的人員。
Outfit Anyone 是由阿里智能計算研究院開發(fā)的一個虛擬試衣技術(shù),可以讓你在電腦上看到自己穿上任何衣服的樣子。不僅適用于真人,動漫人物也同樣適用。與之前的Animate Anybody 配合,可以實現(xiàn)任何角色的服裝變化和動態(tài)視頻生成。
這個基于條件擴散模型的應(yīng)用,不僅僅是技術(shù)上的突破,更是時尚界的一場革命。Outfit Anyone的一個亮點是它對各種體型的適應(yīng)性。無論是健美型、曲線型還是小巧型,這項技術(shù)都能滿足廣泛用戶的需求。想象一下,不需要實際試穿,就能看到自己穿著不同風格服裝的樣子,這簡直太棒了!!
我們都知道 Stable Diffusion 3 是一款強大的文生圖模型,擁有20億參數(shù),因其高效的推理速度和卓越的生成效果而備受矚目。
近日,Stability AI在推特上宣布正式開源了 Stable Diffusion 3 Medium(SD3-M) 權(quán)重,為廣大用戶帶來了免費試用的機會。而且官方還宣稱 SD3-M 是他們 Stable Diffusion 3 系列中最新、最先進的文本轉(zhuǎn)圖像 AI 模型!
Stable Diffusion 3 Medium(SD3-M)關(guān)鍵要點: 1. Stable Diffusion 3 Medium,由 Stability AI 推出,代表了我們迄今為止在文本到圖像領(lǐng)域最前沿的開放模型技術(shù)。 2. 這款模型設(shè)計緊湊,便于在常見的個人電腦、筆記本電腦,以及企業(yè)級圖形處理單元(GPU)上高效運行。其優(yōu)化的大小使其成為文本轉(zhuǎn)圖像應(yīng)用的新一代標準。 3. 現(xiàn)在,這些精心調(diào)整的模型權(quán)重可以在非商業(yè)性的開放許可證和面向創(chuàng)作者的低成本許可證下供您使用。如果您有大規(guī)模商業(yè)應(yīng)用的需求,歡迎聯(lián)系我們以獲取更詳細的許可信息。 4. 想要體驗 Stable Diffusion 3 模型的魅力,您可以通過 Stability AI 的平臺 API 來嘗試。我們還提供在 Stable Assistant 上注冊即可享受的三天免費試用。此外,您還可以通過 Discord 加入 Stable Artisan,進一步探索模型的潛力。
Stability AI官方公告 地址:http://stability.ai/news/stable-diffusion-3-medium