當人工智慧現世,人類會面臨到哪些問題呢?
「不會累的機器人,你拿什麼贏他?」密西根州立大學教授 Arend Hintze 曾表示,作為一名人工智慧研究人員,經常會遇到人們害怕人工智慧可能帶來的問題。那麼,究竟人工智慧的出現會帶來什麼樣的問題呢?一起來聽聽專家怎麼說吧!
人有錯手,人所建造的人工智慧永遠有無法預期性的風險?
1968年上映的電影《2001太空漫遊》,其中的人工智慧超級電腦 HAL 9000 即為一個例子。工程師們可能已經很清楚每個元件是如何獨立工作的,但是他們並不全然了解其整體的運作機制,最終導致太空任務以失敗告終。
上述例子展現了我們如何是陷入人工智慧研究的困境之中:我們從認知科學(研究何為認知、認知有何用途以及其運作的原理,研究訊息如何表現為感覺、語言、注意、推理和情感等)的角度來看最新的研究成果,將其轉化為演算法並將其加入於現有的系統中。
像 IBM 的 Watson 和 Google 的Alpha這樣的系統配備了具有巨大計算能力的人造神經網絡,並取得了令人印象深刻的成就。但是如果這些系統犯了錯,以一個普通人而言,可能遇到的最壞的情況頂多就是失去一些投資於它們的錢。
但隨著人工智慧設計變得更加複雜,它們的能力也相應的提升。在其所背負的責任增加的同時,伴隨而來的是無法預期風險的增加。人難免會犯錯,也因此我們身為人,很可能永遠無法建立一個真正安全的系統。「我們試圖在不理解人工智慧的情況下設計人工智慧。」
依賴「Neuroevolution」可能得以減少誤用但這卻無法阻止人工智慧遭濫用
隨著機器學習的發展,現今發展出一種名為「Neuroevolution」的學習方法。藉由評估人工智慧的表現,挑選那些表現最好的作為標準模型,並以其為基礎繼續往後發展認知能力。
一路走來,我們將透過進化的過程找到並消除錯誤和問題。每一代人工智慧都能更好地處理前幾代產生的錯誤。這增加了我們在模擬中發現意想不到後果的機會,並在將人工智慧應用於現實世界之前消除這些後果。
另外一個可能性就是使用進化來影響人工智能系統的道德與價值觀。我們可以建立與人們現實相仿的虛擬環境,使機器具有善良、誠實和同理心等。這可能是確保我們所培養的是服從的僕人或值得信賴的同伴的方法。
雖然神經進化可能減少無法預期的後果,但並不能防止濫用。人工智慧的濫用是一個道德問題,而不是科學問題。作為一名科學家必須遵守對事實的義務,報告在實驗中的發現,不論是否喜歡這樣的結果。
貧富差距的擴大:人工智慧產生的財富應當如何分配?
也許有一天,所有人類工作都將由機器來完成。即使是科學家等研究型的工作,也可以透過大量機器不懈地研究如何製造出更智慧化的機器來加快速度。在現今的社會裡,自動化可以節省勞動力,但這也使擁有機器的人變得更加富有;而其他沒有機器的人呢?他們可能失去社會上的競爭力而變得更加貧窮。
而那些出現在電影裡的情節呢?如同前面所說的,我們無法保證那些事情一定不會發生(無法預期性),也因此,我們必須有所警戒。除了人工智慧可能帶來的安全問題以外,它們也構成了政治和經濟方面的挑戰。如果我們不能找到分配財富更好的辦法,那麼其所帶來的便利性將只有少數人能受惠,但如果更多人擁有這項工具,這樣就社會才會均富,科技進步與經濟成長同步帶來的中產階級美夢才有望實現。
- 本文編譯自《The Conversation》〈What an artificial intelligence researcher fears about AI〉
參考資料:
- 2001太空漫遊 (電影) Wikipedia
- 認知科學 Wikipedia
- Neuroevolution Wikipedia
- 自動化技術 Wikipedia
留言討論