讓 AI 臣服的關鍵,在於掌控它的心理因素
文/蕭晴方
早在 2014 年,英國物理學家史蒂芬‧霍金(Stephen Hawking)接受英國 BBC 採訪時就曾預言:「全面性的開發人工智慧有一天可能會導致人類滅亡!」,今年 4 月在北京全球移動互聯網大會上,霍金的遠程視訊演講又再度提到 AI 發展議題,他憂心地表示,「人工智慧一旦脫離束縛,人類將不可能與之競爭」。
AI 失控會威脅人類?如何讓它「關機」
霍金和其他在「生命未來研究所」(Future of Life Institute)的科技企業家如 Tesla CEO 伊隆‧馬斯克(Elon Musk)等 1000 多名人工智慧領域研究的重要專家就曾共同發表公開信,表示人工智慧可以帶給社會極大助益,但其深遠影響也值得各界深思協商,不可控制的人工智慧會帶給世界多大的威脅,沒有人能做擔保。
去年,Google 旗下的倫敦人工智慧研究公司 Deep Mind 與英國牛津大學人類未來研究所(Future of Humanity Institute)與機器智慧研究所(Machine Intelligence Research Institute)聯合發表了〈可被安全中斷的人工智慧〉研究報告,提出幫人工智慧加上「紅色按鈕」的方法,防止人工智慧高度發展後傷害人類或環境,並指出如何讓人工智慧無法學會讓紅色按鈕失效。
不過,目前該團隊只有部分演算法可以達到「紅色按鈕」的目標,而中斷人工智慧的運作,其他部分則無法安全中斷,需要再接再厲。
不過幫人工智慧加上開關是不是可行的解決辦法,目前還沒有定論,如瑞典哲學家 Nick Bostrom 在 Ted Talk 中就抱持不同的意見,他認為,即使情況需要,人類也不一定會按下開關,如即使知道我們過度依賴網路,我們也不會主動把網路關掉。
為了測試人工智慧是否可以被中斷運作,加州柏克萊大學(University of California, Berkeley) 的研究團隊設計了名為「關開關」(Off-Switch Game)的測試。在這個測試中,機器人被指定完成任務,而人類可以在任何時刻按下機器人關機鍵接手完成任務。
順我者昌,逆我者亡——要關掉方便的 AI 嗎?
不過機器人也可以選擇讓關機鍵失效。在測試中,被給予高度「信心」的機器人從不讓人類把自己關掉,因為自己的工作效能大於人類;而「自信心不足」的機器人則可以輕易讓人類接手工作。
團隊中的博士生成員 Dylan Hadfield-Menell 表示,讓機器人信心不足並不是好事,如由 AI 駕駛的無人車送小孩去上學時,任何時刻 AI 都不應該讓小孩接手駕駛。
太順從人類的意志不一定是好事,像是大家每天使用的臉書,臉書的演算法順從人意,盡把我們想看的動態送到我們面前,這樣的「過濾泡泡」(Filter Bubble),卻使推播的資訊把我們困在「同溫層」裡,使得動態牆可能出現錯誤或虛假的新聞。
進化歷程脫離掌控,AI 會終結人類嗎?
對於 Handfield-Menell 團隊的成員來說,「關開關」測試只是開始,他們會接續一連串測試機器人決策過程的實驗,希望了解機器人在得取不同程度的資訊時,會如何影響 AI 做出最終決定。
因為在不太久的未來,當我們送出更多機器人上街或在公司、工廠甚至餐廳、便利商店工作時,我們需要知道,他們會不會因為比人類更快速的演化,最終作出不利人類全體利益的決定,像阿諾史‧瓦辛格主演的電影那樣,成為真實的「魔鬼終結者」。
留言討論