Android 台灣中文網
標題:
[虛實互動]抓影風爪手
[打印本頁]
作者:
apkcat
時間:
2017-4-27 19:02
標題:
[虛實互動]抓影風爪手
本帖最後由 apkcat 於 2017-4-29 11:52 編輯
伸手就能「抓」到影中物,麻省理工發表虛實互動新技術
登錄/註冊後可看大圖
影片這種媒體形式,觀眾大部分還是被動接收訊息,
嚴格來說本身並不算互動性的媒介,
但美國麻省理工學院的電腦科學暨
人工智慧( Computer Science and Artificial Intelligence Laboratory, CSAIL) 實驗室,
讓觀眾可以伸手「摸」到影片中的物體,甚至可以進一步讓影片中的物件移動,
而且不需要用到綠幕。
舉例來說,如果影片中出現正在彈吉他的畫面,
你可以用滑鼠或是其他控制方式撥動琴弦,或者加入壓力模擬,
製造出環境中風吹或車輛喧囂而過的感受。
登錄/註冊後可看大圖
(Photo Credit:
Interactive Dynamic
Video 影片)
這個技術特別的地方在於,一開始只用普通的攝影機拍攝,
事後才利用特殊演算法分析影片中的物體發出的振動。
這個演算法只要截取一項物品短短 5 秒鐘的影片,
就能模擬出它受到各種外力所產生的反應。
[yt]4f09VdXex3A[/yt]
雖然互動式影片並不少見,但要能對觀眾的動作做出反應,
通常得耗費更多設備、後製成本,在綠幕前拍攝、用特效建立該物的 3D 模型等等,
才能達成效果。
麻省理工學院在新聞稿中甚至用 Pokémon Go 來舉例,
在 AR 的結合上可能可以讓妙蛙種子和周圍的草叢互動,
製造跳出草叢的效果。在電影中要製作外星人入侵真實地標的畫面也變得很容易。
[yt]9f1fCCb3hVg[/yt]
Interactive Dynamic Video
這項科技正巧搭上在風口的 AR 和 VR 應用技術,
而且可望大幅降低虛實互動內容的產製成本,讓 VR 熱度流向內容生產方,
甚至還能增強 VR 的互動性。若再加上之前 日本東京大學 研發的觸感反饋裝置,
應該就能讓虛實互動內容更加寫實,
不管是皮卡丘還是噴火龍通通都能透過影片變得看得見也摸得著了。
資料來源:
INSIDE
登錄/註冊後可看大圖
(擴增實境沙盤)
順便複習一下
[yt]lCARHatJQJA[/yt]
TRANSFORM -
Amazing Technology Invented By MIT
[yt]H01ybq_cB9o[/yt]
[yt]eCBaLcsMCRs[/yt]
FUI ECHO - Screen Graphics / Fantasy User Interface
登錄/註冊後可看大圖
[yt]qvrSUwqt6Mw[/yt]
Westworld UI A Supercut
以上這些創意是不是有甚麼異曲同工之妙呢?
登錄/註冊後可看大圖
https://apk.tw/forum.php?mod=attachment&aid=MTkwMDc3MHxkNjBlZDYxMTUwMTJhNWM2YmMzNDc1NmQ3ODA4MmQ3YXwxNzUzMzA3NjY0&request=yes&_f=.mp3
(
Radiohead by Ramin Djawadi
)
延伸閱讀:
未來人機介面_TUI概念實體化
(以上資料為原作所有)
歡迎光臨 Android 台灣中文網 (https://apk.tw/)
Powered by Discuz! X3.1