馬上加入Android 台灣中文網,立即免費下載應用遊戲。
您需要 登錄 才可以下載或查看,沒有帳號?註冊
x
差不多在 3 月的時候,微軟機器人 Tay 開放跟網友互動,結果才一天就因為學習了太多莫名其妙的字彙,變得會種族歧視又憤世忌俗Google 團隊在研究自己研發的 Ai 時,則是把系統放進 3,000 本愛情小說的資料庫中,並且要求人工智能試寫出一段 13 個句子組能的對話,殊不知得出的結果實在是令人覺得毛骨悚然:
there is no one else in the world.(世上沒有其他的人)
there is no one else in sight. (眼中沒有其他的人)
they were the only ones who mattered. (他們曾經是唯一要緊的人)
they were the only ones left. (他們是曾經留下的人)
he had to be with me. (他要和我在一起)
she had to be with him. (她要和他在一起)
i had to do this. (我需要這樣做)
i wanted to kill him. (我想殺掉他)
i started to cry. (我開始哭)
i turned to him. (我轉身向着他)
只能說人工智能會因為讀太多愛情小說性格變扭曲,那對於有在看大量愛情小說的人來說,多多少少還是有些許心靈層面的影響吧
|