人工智慧真是難讓人預測!現在連照片裡的人物都能動起來!誰能想得到有這天!!
過去,AI人工智慧 機器學習研究人員開發了一套系統,它可以利用靜態的人臉照片/肖像呈現逼真的動作。有了這樣的系統,每一張人像照片都可以變成動畫,彷彿畫中的肖像都變成活生生的人一樣!
最近,一篇來自三星人工智慧研究中心(Samsung AI Center)發表的論文中,就描述了這套系統。該論文已經上傳到 Arxiv (註:一個收集物理學、數學、電腦科學等論文預印本的網站)。該系統使用了新的方法,將「來源臉孔(就是人在做動作時的頭部特寫)」影片上的特徵與「目標臉孔」的數據對應,讓目標臉孔做出來源臉孔的動作。如以下影片所示:
這些三星駐莫斯科的研究人員在這篇論文也表示,僅僅只需一位人臉的模型,就可以使一個圖像呈現出說話、做各種表情的影片。不過在讓這些肖像「活過來」的前提,是需要擁有大量的臉部數據資料。數據越多,表情及動作就越逼真。雖然目前的效果還稱不上完美,但也足夠假以亂真了!
他們能夠讓愛因斯坦或是瑪麗蓮夢露等名人的照片、甚至是世界名畫「蒙娜麗莎」,讓他們呈現栩栩如生的動作、生動的表情、動作,彷彿他們活過來了一樣。
例如下圖的蒙娜麗莎合成動畫,就使用了三個不同的「來源臉孔」的影片。最終呈現的成果都有很大的差異。
而且,這個系統還運用了所謂的「生成對抗網絡(GAN)」,也就是讓兩個模型相互對抗。第一個模型彷彿製造贗品的「工匠」,試圖欺騙第二個「鑒别者」模型:我們現在手上有真實的data,「工匠」要做的事就是要做出這個data的「贗品」,而「鑒别者」則是要分辨給他的data是真的還是假的,並且會給出一個回饋。「工匠」根據「鑒别者」給的回饋來「訓練」他的工藝,也就是調整模型的數值;一旦「工匠」將其數值調整到「鑒别者」分誤以為是真的data時,就可以說我們訓練出了一個能夠模擬真正data的模型。
在這些研究人員提供的其他例子中,有些生成的結果,質量差強人意。例如,有些例子的來源影片是取自於新聞,結果生成出來的目標影片,竟然也有來源影片下方的新聞跑馬燈,而跑馬燈上的字幕是用亂碼填充的。雖說如此,但是這個系統,能達到如此的效果已經算是不錯了!不過現在這個系統仍只適用於臉部,我們還不能讓蒙娜麗莎跳舞,人工智慧-機器學習仍然有很大的進步空間,但相信不久的將來人的AI人工智慧科技就能達到!
HERE!延伸閱讀看過來:
美國的AI人工智慧領頭羊的地位岌岌可危?來看看川普怎麼應對!
一起來玩google新的人工智慧辨識功能!看看你的圖片能不能考倒它!
留言列表