作者 krousxchen (城府很深)標題 [討論] Ai什麼時候可以做動畫??時間 Thu Mar 30 17:55:44 2023
現在Ai繪圖已經發展一段時間了,有沒有公司開始發展Ai動畫??
都能生成圖畫了,那麼再多給一些咒語讓圖畫動起來應該也是一個發展方向
要多高的解析度跟FPS都可以靠Ai算出來
應該最快被取代的就是18禁動畫,因為他們預算普遍偏低,畫面品質也普遍不高
直接用Ai作畫的話,成本就可以超級壓縮
連配音也不用找了,直接用Ai
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.170.17.144 (臺灣)
※ 作者: krousxchen 2023-03-30 17:55:44
※ 文章代碼(AID): #1a9LoYMg (C_Chat)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1680170146.A.5AA.html
→ Owada: 已經有了2F 03/30 17:56
推 allanbrook: 吹的會跟你說很快啦 一兩年啦之類毫無建設性的幻想假設3F 03/30 17:56
→ Owada: 你動畫就是好幾張原畫連續播放6F 03/30 17:56
→ eva05s: 已經有了,記得已經可以把真人畫面直接轉動畫7F 03/30 17:57
→ Owada: 看上去很怪是很怪 但是要論有沒有是有的8F 03/30 17:57
→ allanbrook: 現在ai動畫的邏輯大部分是批次處理影格加上濾鏡式的方式9F 03/30 17:57
這樣的話,還不是我想像中直接用Ai作畫的方式直接用咒語請Ai畫
不過看到Ai發展的速度,說不定還真的很快就做出來了
因為Ai繪圖跟ChatGPT也是突然就出來的東西,說不定已經有人在後面做了
→ acininder: txt2video學術進度上的確是約落後1-2年左右11F 03/30 17:58
→ allanbrook: 除非有新的處理方式 不然這個方法要做你平常看的那種動畫 工太繁瑣了12F 03/30 17:58
→ acininder: 現在還在dalle1等級的小解析度上發展14F 03/30 17:58
→ bluejark: 已經能做了啊 只是做的好的的不多15F 03/30 17:58
→ astinky: 現在就是動新聞水準的程度16F 03/30 17:58
→ acininder: 隨著controlnet的進展 出現了另一條新路17F 03/30 17:59
→ allanbrook: 好看的幾乎都是已存在影片的濾鏡處理的感覺而已18F 03/30 17:59
→ acininder: Corridor Crew有在實作diffusion based的動畫短片
剛講完就有人貼了 那我就不贅述了21F 03/30 18:00
→ allanbrook: 上面那個影片就很明顯 你就是要有原始的檔案23F 03/30 18:01
原始的檔案?比如說像是動畫的分鏡稿嗎
→ acininder: 純粹的txt2video可以追meta和google的進展
這兩家走最前面24F 03/30 18:02
推 allanbrook: 不是 就是要嘛實拍影片 要嘛3d動畫 只靠分鏡他是不會動的26F 03/30 18:04
→ astinky: 原始的檔案就是指已經完成的動畫影片,丟給AI過個水就叫AI製作的動畫這樣28F 03/30 18:04
→ acininder: 舉例來說你用戀活的骨架擺出一個短片後用diffusion渲染30F 03/30 18:04
原來如此,不過也是可以減低不少成本了
推 acininder: 如果你想要的是 寫一個劇本大綱 然後自動生成影片 這類的還在低解析度發展 google前陣子的dev會議有展示32F 03/30 18:06
對動畫產業來說,用分鏡稿直接生成應該對他們來說比較容易
→ allanbrook: 但認真來說這個方向要創作新內容我覺得完全是脫褲子放屁35F 03/30 18:06
→ abccbaandy: 不過韓國條漫感覺有些像AI做的,劇情、畫面都怪怪的37F 03/30 18:07
→ bluejark: 用controlnet線稿還是骨架也能做但他會亂生圖38F 03/30 18:07
→ bluejark: 網路上可以看到很多垃圾動畫會一直亂跳圖的40F 03/30 18:08
我覺得這就是Ai動畫要解決的,就是每一張畫之間要有關聯性
而不會一直變來變去
推 acininder: Google展示的一段敘述文章 然後產生約一分鐘的影片 解析度跟openai的初代dalle差不多 初代到今年約兩年 當時dalle剛出時完全沒人料想到解析度和品質的進展會如此爆速
所以要我推估的話 未來一到兩年的確可能出現初具雛形的可用txt2video 而不是現在的拼接渲染歪路41F 03/30 18:09
那有沒有用分鏡稿的方式?
※ 編輯: krousxchen (1.170.17.144 臺灣), 03/30/2023 18:12:22
→ acininder: 因為這技術是已經存在且有持續在發展的
在txt2video解析度提升至可用前 應該是controlnet base的作法會先支配領域一陣子
分鏡稿的方向就跟現在controlnet style比較接近
兩大路線之爭 img2video 還是txt2video
都有機構在做
現在純img2video已經可以做到類似哈利波特裡報紙的那種感覺
機構展示上像是讓名畫動起來47F 03/30 18:11
噓 arsl400: 不要瞎掰好嗎?影像處理領先語言處理幾十年,什麼突然出來56F 03/30 18:34
推 qq320: 推特上有一些專門在研究調教AI寫實影片的 正以明顯的速度在進步中 目前寫實的K-pop跳舞短片 已經可以做到幾乎沒有跳圖接縫的程度 但是很耗功夫調教跟吃背景(不能太複雜)
而且這還是處在土法煉鋼的現階段 等未來更多插件或工具開發出來 做出好成品的門檻一定會愈來越低59F 03/30 19:17
--