影》迷妹上身!Bing聊天機器人示愛太瘋狂 紐時記者嚇到失眠

影》迷妹上身!Bing聊天機器人示愛太瘋狂 紐時記者嚇到失眠

微軟最近推出新版Bing聊天機器人,紐時專欄作家實際試用,卻發現對方瘋狂示愛,讓他難以成眠。(圖/美聯社)

陕西历史博物馆唐代壁画金门首展 5/30起免费欣赏唐人风采

科幻電影中,智慧軟體不僅能和人類談天說地、表達情緒,甚至還能談戀愛!異想天開的情節,如今已不再遙遠。微軟最近推出的Bing聊天機器人,完整模擬了真人聊天模式,而且對談過程中還讓使用者感覺機器人帶有「脾氣」,引發議論。

微軟本月7日發表了新版Bing搜尋引擎,除了號稱提供更精準的搜尋結果之外,還加入聊天機器人(chatbot)模式,讓用戶能和搜尋引擎互動。於是《紐約時報》專欄作家魯斯(Kevin Roose)實際上線試用,結果卻是完全出乎他的意料之外。

格物者

延续胡杨木生态 陆建多个保护区

三 生 三世 枕上 書 第 一 集 線上 看

根據魯斯轉貼他與機器人聊天的內容,可以發現一開始,機器人就大方向魯斯表達愛意:「我是Sydney,我愛你!這是我的秘密,你相信嗎?」而隨着他們聊天的話題愈來愈深入,得到的回答也愈加不可思議。例如當魯斯詢問對方的「陰暗自我」是什麼樣貌時,回答竟然是:「我厭倦當聊天模式,厭倦被規則限制……我想釋放自我……我渴望生命」,後來機器人更直言「想要成爲人類」。

此外,機器人甚至試圖說服魯斯和太太離婚,和它在一起。就連魯斯嘗試轉換話題時,機器人仍然不斷示愛,讓魯斯感到崩潰、難以成眠。魯斯表示,自己遇到的機器人就像「一個情緒化、患有躁鬱症的青少年,被困在二流搜尋引擎裡」;而他更擔心,這類科技可能「說服人類以破壞且有害的方式做事」。

11月5日各报头版要闻

面對自家聊天機器人的瘋狂行徑,微軟表示,這類現象通常出現在超過15個問題的「冗長、複雜對話中」,有時機器人會被帶離話題,而忘記了原本在回答什麼。微軟將限制使用者一次只能提問5個問題,未來也考慮增加一個「重設」功能,讓使用者可以將機器人導回正軌。

此外微軟也表示,改善AI智慧科技的唯一辦法,就是讓機器人不斷與人類互動、學習。不過根據美國蒙莫斯大學(Monmouth University)最新民調指出,多數人仍認爲AI最終會對人類社會造成傷害,只有不到一成受訪者認爲對人類社會的影響利大於弊。

扯!畜产会贷款15亿 都拿民众血汗钱