2019年4月13日星期六

人工智能的道德

容志偉

2019年4月13日 信報 經管錦言 B8版

上星期和兩位資訊科技巨企的科技總監及一位大學法律學院教授,為有關人工智能和道德的研討會作演講嘉賓。

人工智能發展一日千里,很多不同工作崗位,特別是要處理海量數據的位置,都開始由人工智能擔任。現在很多人工智能的應用仍然停留在數據分析、分類和總結,但也有人工智能已用來代人類作出選擇和決定。雖然人工智能提供極高的執行效率,但仍要面對一些人類擔任同樣崗位的道德選擇。人工智能會否以人類的道德標準來作決定呢?

道德問題的經典例子是「電車問題」(Trolley problem),即一輛煞車功能壞了的有軌電車,快將撞上路軌上的5個工人,而你有一個按鈕可以把電車轉往只有一個工人的後備路軌,你會怎樣選擇呢?如果操控按鈕的不是人類而是人工智能,人工智能又會怎樣選擇呢?

人工智能所學習的知識,無論是硬知識還是軟知識,都是人類所教。工程師設定人工智能架構後,便會提供訓練數據給人工智能學習。當然人工智能有機會很快便能夠自行找知識學習,但最初段所學習的知識,還是由人類所選擇的。

開發者難免存偏見

那人工智能學的知識是否中立呢?工程師和訓練數據的提供者,會否有意或無意下,灌輸了自己的道德價值觀和喜好給人工智能呢?如果沒有任何規則或開發標準,這是必然的。問題有算法偏見(Algorithm Bias)和數據偏見(Data Bias)。

算法偏見是人工智能在理解數據和應用時未能真正中立。現時的人工智能,仍然未能夠無中生有、舉一反三,因此工程師在設定人工智能架構和規則時,很多時已經明確指定了對於數據的基本反應。

自動駕駛人工智能便是其中一個例子。工程師在設定架構和規則時,基於自身經驗,認為若車輛發生交通意外,應該先要保護控制員位置,於是便定下了這規則(未來的真自動駕駛應該是沒有控制員的)。即使人工智能在訓練時學懂了這不是必然,但基於這算法偏見,應用時仍要遵守這規則。為何這條規則不是必然呢?因為在交通意外發生時,有機會是由於不先保護控制員位置,而可以讓控制員和乘客存活,只是全部受傷;如果先要保護控制員位置的話,就有機會導致控制員沒有受傷,但乘客會死亡。

數據偏見是,即使人工智能架構已經能夠中立,但由於用於訓練人工智能的數據本身有偏見,而導致人工智能在應用時也有偏見。例如翻譯用人工智能,如果訓練人工智能數據的翻譯句子,大部分醫生是男性,大部分護士是女性,人工智能很可能在翻譯時,會自動把醫生有關的句子用「He」,以及把護士有關的句子用「She」。

人工智能偏見,也可能作出違反了人類道德標準的判斷和決定。如果人工智能的應用在社會上受歡迎,更可能影響整個社會的道德價值觀。對於已經研究和開發人工智能多年的工程師來說,這些偏見問題並不陌生,對訓練數據是否中立也有相當的敏感度,有些更接受了法律道德的訓練。

工程師須加強教育

這幾年間人工智能發展迅速,數間資訊科技巨企更提供平台,讓更多工程師快速開發人工智能的應用,但很多剛開始認識人工智能的工程師卻沒有意識到道德問題。資訊科技巨企如Microsoft及IBM等,都設有人工智能道德委員會,以確保所開發的人工智能不會違反人類道德標準。筆者相信,如果有天人工智能闖出大禍的話,很可能是因為一些中小企沒有意識到道德問題,甚至不理會道德而開發的。那又會否有中小企老闆或工程師刻意開發會作出違反道德標準的人工智能呢?配備在帶有武器的無人機上,能自動搜尋人類並攻擊的人工智能,便是例子。

法律追不上科技,這差不多是每一代革新科技商用化都會發生的事。但人工智能可能造成的破壞是深遠而快速,社會是否只能讓商界自行約束,加強工程師的教育,便別無他法呢?沒有人希望科幻電影中人工智能控制人類的情節發生,但以人工智能現在發展的速度來說,並不是沒有可能。這是社會值得深思的。