2019年8月17日星期六

社會運動下辦公室管理學

容志偉

2018年8月17日 信報 經管錦言 B8版

商業與政治從來分不開,或許部分香港人習慣了吃政治免費午餐,老闆們通常都會說:「我不會弄政治,也是中立的,請不要找我麻煩,也不要跟我談政治。」

在當下的香港形勢,很多老闆突然發現,除了在社交媒體沒完沒了的資訊分享外,政治更出現在自己辦公室的每一個角落,無論是同事間的交流甚至辯論,又或是有個別同事身上突然多了一些傷痕。即使過去2個月的工作上,團隊仍然能交出成績,但老闆們都會想到,幸福不會是必然的。

不久前,有位資訊科技中小企老闆向包括筆者在內的友好請教,怎樣解決一件於其辦公室內發生的人事管理事件。那位老闆的公司有位年輕軟件工程師,於元朗事件發生當晚,剛好和家人在元朗吃飯。他們在離開元朗時受到襲擊,幸好只受輕傷,但由於家人受驚,工程師便希望於事發後翌日請假,陪伴家人。請假時,老闆並不在公司,人事部主管基於規定,不是病假,事假又不是預早申請,也沒有家人入院證明,便不批准。工程師的反應是即時補一個月薪金辭職,更嚴重的是,該工程師同隊的另外兩位工程師知道事情後,也即時補一個月薪金辭職。

讀者可能會估計,這事情發生的原因有很多,例如不夠全面的人事管理政策,老闆跟人事部缺乏溝通,甚至是冰封三尺,非一日之寒的問題等。不容否認的直接原因是社會的政治事件,以及老闆各管理層並不理解年輕人的思維,遂作出不適當的管理行為。

在香港,無論是身經百戰的專業管理人,還是對商業策略案例的應用瞭如指掌的頂級商學院MBA畢業生,大部分都缺乏在社會運動和政治事件發生時的商業管理訓練和經驗。上述個案相信不是個別例子。老闆跟管理層在這些社會局面下應該怎樣處理?

商業理念不等同政治立場

首先,無論對社會事件有什麼看法,也不要強加於同事身上。即使在日常一言一行上,也不要像在暗地施壓,因為可能說者無心,聽者有意。即使員工在老闆發表看法時沒有反應,但會把感覺藏在心底。到員工遞交辭職信時,恐怕為時已晚。如果員工知道自己的看法跟老闆不同,其實也不輕易顯露出來。

有老闆便問,自己是老闆,為何自己的看法在自己的辦公室也不可以表達?這都是不少中小企老闆的心聲,也可以說是盲點。公司聘請及支薪給同事,同事的職責包括支持老闆的商業理念,卻並不包括支持老闆的政治立場。強行施壓,只會令同事情緒受到困擾,工作效率必然下降。

另外,如果在日常情況下,管理層發現同事的情緒受到困擾,正常都會嘗試了解及幫助。不幸地,在社會運動和政治事件發生時,不少管理層以至老闆卻一反常態,沒有幫助,反而責怪同事。

即使同事沒有親身參與社會運動和政治事件,從不同渠道傳來無間斷的資訊,也會導致同事情緒受到不同程度的困擾。無論對事件有任何看法,這也是人之常情。管理層以至老闆只須用日常情況下的管理方法,讓同事被情緒困擾的程度減至最低,以同理心蓋過政治立場,一切也會好辦。

上述兩點看似簡單,但能否執行,要看管理層和老闆的情緒智商。再想深一層,這些問題能否在源頭上便解決呢?即公司所聘請的管理層和同事都是跟老闆的政治立場一樣的呢?這是筆者跟其他老闆友好曾經熱烈討論的一個重點。其實答案顯而易見,即使在面試時應徵者能夠提供老闆想要的答案,但有辦法確認嗎?政治立場也可以隨時間大幅改變,當初回答的答案又可以作準嗎?

高位者放下身段與下屬溝通

另外,以這次社會運動為例,根據香港民意研究所較早前的民調,很大部分年輕和較高學歷的市民都對某個立場有強烈看法。從現實執行角度來看,要是老闆持有相反立場的話,是否可以完全不聘用年輕和高學歷的人呢?
很多老闆都說,自己對管理年輕人完全沒有問題,但這次事件是對老闆們一個嚴峻的考驗。離開工作崗位後,老闆和員工都是一個市民。如果老闆和管理層能夠放下身段,真心聆聽和認真思考年輕人的看法,很多事情其實也不難解決。大家願意一試嗎?

這是最好的時代,也是最壞的時代。香港人加油!

2019年4月13日星期六

人工智能的道德

容志偉

2019年4月13日 信報 經管錦言 B8版

上星期和兩位資訊科技巨企的科技總監及一位大學法律學院教授,為有關人工智能和道德的研討會作演講嘉賓。

人工智能發展一日千里,很多不同工作崗位,特別是要處理海量數據的位置,都開始由人工智能擔任。現在很多人工智能的應用仍然停留在數據分析、分類和總結,但也有人工智能已用來代人類作出選擇和決定。雖然人工智能提供極高的執行效率,但仍要面對一些人類擔任同樣崗位的道德選擇。人工智能會否以人類的道德標準來作決定呢?

道德問題的經典例子是「電車問題」(Trolley problem),即一輛煞車功能壞了的有軌電車,快將撞上路軌上的5個工人,而你有一個按鈕可以把電車轉往只有一個工人的後備路軌,你會怎樣選擇呢?如果操控按鈕的不是人類而是人工智能,人工智能又會怎樣選擇呢?

人工智能所學習的知識,無論是硬知識還是軟知識,都是人類所教。工程師設定人工智能架構後,便會提供訓練數據給人工智能學習。當然人工智能有機會很快便能夠自行找知識學習,但最初段所學習的知識,還是由人類所選擇的。

開發者難免存偏見

那人工智能學的知識是否中立呢?工程師和訓練數據的提供者,會否有意或無意下,灌輸了自己的道德價值觀和喜好給人工智能呢?如果沒有任何規則或開發標準,這是必然的。問題有算法偏見(Algorithm Bias)和數據偏見(Data Bias)。

算法偏見是人工智能在理解數據和應用時未能真正中立。現時的人工智能,仍然未能夠無中生有、舉一反三,因此工程師在設定人工智能架構和規則時,很多時已經明確指定了對於數據的基本反應。

自動駕駛人工智能便是其中一個例子。工程師在設定架構和規則時,基於自身經驗,認為若車輛發生交通意外,應該先要保護控制員位置,於是便定下了這規則(未來的真自動駕駛應該是沒有控制員的)。即使人工智能在訓練時學懂了這不是必然,但基於這算法偏見,應用時仍要遵守這規則。為何這條規則不是必然呢?因為在交通意外發生時,有機會是由於不先保護控制員位置,而可以讓控制員和乘客存活,只是全部受傷;如果先要保護控制員位置的話,就有機會導致控制員沒有受傷,但乘客會死亡。

數據偏見是,即使人工智能架構已經能夠中立,但由於用於訓練人工智能的數據本身有偏見,而導致人工智能在應用時也有偏見。例如翻譯用人工智能,如果訓練人工智能數據的翻譯句子,大部分醫生是男性,大部分護士是女性,人工智能很可能在翻譯時,會自動把醫生有關的句子用「He」,以及把護士有關的句子用「She」。

人工智能偏見,也可能作出違反了人類道德標準的判斷和決定。如果人工智能的應用在社會上受歡迎,更可能影響整個社會的道德價值觀。對於已經研究和開發人工智能多年的工程師來說,這些偏見問題並不陌生,對訓練數據是否中立也有相當的敏感度,有些更接受了法律道德的訓練。

工程師須加強教育

這幾年間人工智能發展迅速,數間資訊科技巨企更提供平台,讓更多工程師快速開發人工智能的應用,但很多剛開始認識人工智能的工程師卻沒有意識到道德問題。資訊科技巨企如Microsoft及IBM等,都設有人工智能道德委員會,以確保所開發的人工智能不會違反人類道德標準。筆者相信,如果有天人工智能闖出大禍的話,很可能是因為一些中小企沒有意識到道德問題,甚至不理會道德而開發的。那又會否有中小企老闆或工程師刻意開發會作出違反道德標準的人工智能呢?配備在帶有武器的無人機上,能自動搜尋人類並攻擊的人工智能,便是例子。

法律追不上科技,這差不多是每一代革新科技商用化都會發生的事。但人工智能可能造成的破壞是深遠而快速,社會是否只能讓商界自行約束,加強工程師的教育,便別無他法呢?沒有人希望科幻電影中人工智能控制人類的情節發生,但以人工智能現在發展的速度來說,並不是沒有可能。這是社會值得深思的。