接續上一篇文章,再以圖生成影片為例,就是能讓圖可以動起來數秒的時間,這原本是在遊戲角色中常看到的效果,例如角色換穿新裝之後,會自己擺動一下身體看一看效果如何。或是新收服的怪獸同伴,會自己做出一些動作,以突顯其特色。而之後的發展,會是以文字生成影片,那麼AI根據文字的描述而做出不同的對應。
因為可以讀懂人類的語言,所以也能做出相對應的調整。例如少女在河邊散步改在傍晚,就會出現夕陽的情景;改為下雨就可能會出現拿雨傘的景象,或者會讓少女淋雨。也因此馬斯克才敢斷言,以後人類只要負責下指令,講出關鍵字,或描述一個場景就行,接下來就交給AI去執行了。
有趣的地方,會是在與AI的互動上面。即使會耗上許多時間,但也能看到不同的成品。相信這也是使用者願意訂閱付費的主要原因之一。例如要製作男女主角遇到地震的情況,就可能要考慮到以下的細節:
第一,到底是要產生多大的震幅?震動頻率為何?震一次大的,還是不停的震?然後身體被震到上下搖晃?還是左右搖晃?
沒有留言:
張貼留言