Android 台灣中文網

標題: [虛實互動]抓影風爪手 [打印本頁]

作者: apkcat    時間: 2017-4-27 19:02
標題: [虛實互動]抓影風爪手
本帖最後由 apkcat 於 2017-4-29 11:52 編輯

伸手就能「抓」到影中物,麻省理工發表虛實互動新技術

                               
登錄/註冊後可看大圖


影片這種媒體形式,觀眾大部分還是被動接收訊息,
嚴格來說本身並不算互動性的媒介,但美國麻省理工學院的電腦科學暨

人工智慧( Computer Science and Artificial Intelligence Laboratory, CSAIL) 實驗室,
讓觀眾可以伸手「摸」到影片中的物體,甚至可以進一步讓影片中的物件移動,
而且不需要用到綠幕。

舉例來說,如果影片中出現正在彈吉他的畫面,
你可以用滑鼠或是其他控制方式撥動琴弦,或者加入壓力模擬,
製造出環境中風吹或車輛喧囂而過的感受。


                               
登錄/註冊後可看大圖

(Photo Credit:Interactive Dynamic Video 影片)

這個技術特別的地方在於,一開始只用普通的攝影機拍攝,
事後才利用特殊演算法分析影片中的物體發出的振動。
這個演算法只要截取一項物品短短 5 秒鐘的影片,
就能模擬出它受到各種外力所產生的反應。

[yt]4f09VdXex3A[/yt]

雖然互動式影片並不少見,但要能對觀眾的動作做出反應,
通常得耗費更多設備、後製成本,在綠幕前拍攝、用特效建立該物的 3D 模型等等,
才能達成效果。

麻省理工學院在新聞稿中甚至用 Pokémon Go 來舉例,
在 AR 的結合上可能可以讓妙蛙種子和周圍的草叢互動,
製造跳出草叢的效果。在電影中要製作外星人入侵真實地標的畫面也變得很容易。


[yt]9f1fCCb3hVg[/yt]
Interactive Dynamic Video


這項科技正巧搭上在風口的 AR 和 VR 應用技術,
而且可望大幅降低虛實互動內容的產製成本,讓 VR 熱度流向內容生產方,
甚至還能增強 VR 的互動性。若再加上之前 日本東京大學 研發的觸感反饋裝置,
應該就能讓虛實互動內容更加寫實,
不管是皮卡丘還是噴火龍通通都能透過影片變得看得見也摸得著了。


資料來源:INSIDE


                               
登錄/註冊後可看大圖

(擴增實境沙盤)

順便複習一下
[yt]lCARHatJQJA[/yt]
TRANSFORM - Amazing Technology Invented By MIT

[yt]H01ybq_cB9o[/yt]

[yt]eCBaLcsMCRs[/yt]
FUI ECHO - Screen Graphics / Fantasy User Interface


                               
登錄/註冊後可看大圖

[yt]qvrSUwqt6Mw[/yt]
Westworld UI A Supercut

以上這些創意是不是有甚麼異曲同工之妙呢?

                               
登錄/註冊後可看大圖

https://apk.tw/forum.php?mod=attachment&aid=MTkwMDc3MHxkNjBlZDYxMTUwMTJhNWM2YmMzNDc1NmQ3ODA4MmQ3YXwxNzUzMzA3NjY0&request=yes&_f=.mp3
(Radiohead by Ramin Djawadi)

延伸閱讀:未來人機介面_TUI概念實體化
(以上資料為原作所有)








歡迎光臨 Android 台灣中文網 (https://apk.tw/) Powered by Discuz! X3.1