網上版請按此
【黑箱思維】當人工智能出錯令人類蒙受損失,責任誰負?
香港大學建築學院院長偉仕達教授在我新出版的《你未來就緒嗎?》一書的序言中談及「黑箱」思維,他指出新加坡政府正在研發一個可用在交通和土地規劃上的數學模型。這模型有超高解像度,設計複雜而精妙,令人歎為觀止,但卻包含着許多「黑箱」思維。
人工智能的「黑箱」思維令分析結果難以臆測
人工智能出現「黑箱」思維全因為它需要龐大的數據分析,當中涉及大量多重決策因素與資訊,而所有數據結合一起時,又會產生新的變化,使分析結果難以臆測,要詮釋出來毫不容易。
那麼,若然人工智能出錯,責任又該誰屬?
早前彭博新聞有一則題為《當機械人令你蒙受投資損失,你可以告誰》的報導,提及首宗人類狀告人工智能的案件,引人深思。
一名香港富商把25億美元(約195億港元)交託給一間人工智能公司,進行電腦程式管理和投資。這個程式能夠透過整理網上零碎的資訊,包括即時新聞和社交媒體等,掌握投資者情緒,然後預測美國股票期貨走勢,從而作出買賣的決定。這個程式在模擬測試中,可以做到雙位數的回報,令投資者倍添信心。
根據彭博數據,由2014年初至今的5年間,人工智能投資回報的確比對沖基金優勝,回報多逾一倍。然而,在表現反覆的股票市場上,人類和人工智能卻互有輸贏,而近一年則以人類的表現較佳。
至於案情提及的人工智能程式,在真正展開服務之後,表現卻令人大失所望。去年2月14日,這個電腦程式認為美國標普500指數期貨會上漲,但是資料顯示美國通脹上升較預期快速,標普指數掉頭向下,所以程式作出1.4%止蝕的指令。可是,標普指數卻在數小時內反彈,結果令這名客戶在一天內損失逾2,000萬美元(逾1.5億港元),訴訟由此而生。案件已排期明年4月在倫敦的商業法庭開審,相信必然引來熱話。
人工智能難以駕馭非理性的「人為因素」
其實,有關人工智能判斷出錯的責任問題,已有類似的個案。去年3月,美國發生Uber無人駕駛汽車撞倒行人致死的事件,令大眾再次關注無人駕駛的安全性以至倫理標準問題。而今年3月,美國檢察方決定Uber毋須為事件負上刑事責任,則更令人質疑這種創新科技的可靠性,並擔心同類事故將會持續發生。
一直以來,人工智能處理數據的優勢在於預測精確,如棋藝有規則可尋,所以人工智能AlphaGo能夠一舉打敗了人類圍棋冠軍而名揚天下。然而,若面對的場景存在太多非理性的「人為因素」,如股票市場,便難免會出現令人難以理解的決定。
應用如人工智能等嶄新科技已成為大勢所趨,如何能夠贏取人類信任,從而發揮更大的潛力,便是當前大家要細心考量的議題。
鄧淑明博士
香港大學建築學院及工程學院計算機科學系客席教授