Re: [閒聊] 皇城還在吵AI喔

作者: sustainer123 (caster)   2026-04-20 14:51:54
※ 引述 《ake1234 (醉月)》 之銘言:
: → Satoman: 我都4090極限是720p跑30秒,可是15秒之後迭代劣化很明顯 04/20 14:28
說到這問題
時空序列問題都有這毛病
我看有篇文章用diffusion做時空序列預測
正常訓練到後面的圖都會糊掉
所以他就先用單步當loss pre-train
之後再用多步算loss做fine tune
這樣報到後面也不會糊
不過圖像生成應該也有類似研究吧
感覺也是從圖像生成那邊抄過來的
作者: Satoman (沙陀曼)   2026-04-20 14:56:00
現在主流生成長影片的方法是用最後一幀去延長,主要還是算力問題沒辦法這樣搞吧
作者: sustainer123 (caster)   2026-04-20 14:59:00
我理解就自回歸 拿產出的繼續往後作預測那方法主要就改變算loss的方式 他們做完實驗本來一百小時就會糊掉 現在兩百多小時還不會糊掉
作者: Satoman (沙陀曼)   2026-04-20 15:00:00
是這樣沒錯,只是我自己也沒去搞懂context的原理是什麼能跑就好,不求甚解
作者: sustainer123 (caster)   2026-04-20 15:02:00
我是不會跑 只懂訓練模型的部分:(((
作者: Satoman (沙陀曼)   2026-04-20 15:02:00
看過最實用的做法反而是直接練一個角色的lora丟進去這樣直接解決劣化問題是粗暴簡單,但就是麻煩這樣比起用ai 2d轉3d,然後再弄成mmd也沒快多少,效果也是被mmd屌打
作者: sustainer123 (caster)   2026-04-20 15:13:00
這邊我就不懂 沒實際搞過生成的東西:((

Links booklink

Contact Us: admin [ a t ] ucptt.com