2019年11月9日星期六

社運給初創科技公司啟示

容志偉

2019年11月9日 信報 經管錦言 B8版

筆者前陣子跟幾位創業不久的初創科技公司創辦人談談近況,話題都離不開香港正在發生的社會運動。他們除了說說對社會運動的看法外,也談到適逢在年初已經開始的經濟下降周期,對他們公司的影響。

可能讀者會估計,所有初創科技公司的業務都受影響。但除了小部分的公司外,很多公司其實仍然依照原先擬定了的商業計劃營運,毫無影響。經濟周期變化和社會運動,對很多公司都有不同的影響,很多時不是創辦人的執行力問題,也不是團隊的問題,而是在創辦公司時所定下的核心策略導致的。

在初創科技界,特別是與有資訊科技有關的,創業時都要清楚以下的三個方向性的問題:

1.拓展國際市場,還是專注本地市場

2.面對市民大眾,還是主力商業客戶(或政府客戶)

3.研發自家產品,還是完成客戶項目

拓國際市場 研自家產品

很大部分的創業者會選擇專注本地市場、主力商業客戶和完成客戶項目。這個選擇可能基於沒有充足的資金創業,或無法構想一個有合理商業模式的創新科技或產品等原因。當中很重要的原因可能是要降低風險和加快回報。但這個選擇,可能就是公司容易受到經濟周期變化和社會運動影響的根本原因。

這樣的選擇比較容易建立銷售渠道,只需完成小量但大額的交易便足以生存,毋須承擔產品會否受最終用戶歡迎的風險,但就會忽略外來風險以及政治風險。當面對經濟周期變化和社會運動等情況,商業客戶可以極速減少各方面的開支,而導致很多外判供應商失去生意,又或遲遲收不到費用。公司若專注本地市場,又可能會將所有雞蛋放在同一個籃,只要某些情況逆轉,公司根本無從躲避。相反,如果一間初創科技公司的策略是拓展國際市場,面對市民大眾和研發自家產品,個別地區的社會運動,就不易對公司的發展有太大的影響。

有受今次事件影響的公司創辦人說,他們從來沒有理會外來風險和政治風險,只是想可以做一些有快回報的生意。同時他們也問了一個問題:理解經濟周期會有高低,但卻一直以為香港是沒有政治風險的。為何突然要承擔政治風險呢?

社會運動以往對香港人來說可能有點陌生,但全球各地都一直不斷發生。香港的政治問題也從未間斷,只是政治問題不斷嘗試以經濟方法去解決,但實際上並沒有解決,最終一發不可收拾。只要有人和政府的地方,政治風險都必然存在,只是在不同國家地區的制度下,政治風險以不同形式出現而已。已經上了軌道的公司,即使面對政治風險,也可以因為本身已經將風險分散,或有足夠的儲備去應對,而較易度過。但初創科技公司面對相同情況,可能會不堪一擊。

從積極的態度去想,這次的經歷,對於很多初創科技公司創辦人也是一種鍛煉。除美國外,以色列是全球公認的初創科技公司大國,人口僅比香港多一點、約850萬,卻可以育成了超過6000間初創科技公司。這個成績,除了因為以色列的政策外,更重要的原因是以色列人從小開始的歷練。以色列初創科技公司創辦人所面對的不止是政治風險,更是生存風險。土生土長的香港人,其實是很難想像當工程師努力編寫程式時,會突然有空襲警報,若不即時走去防空洞躲避,很可能會有導彈在身邊爆炸。正是這種危機意識,以色列的初創科技公司很多都會以國際市場為目標,面對市民大眾及研發自家產品,因即使有政治風險和生存風險,都可以確保公司能夠繼續營運。這些都是香港初創科技公司創辦人需要學習的。

無論是初創科技公司創辦人,又或大型企業的專業管理人,這數月都會不斷問社會運動可以怎樣完結,又或是何時完結。在社會運動開始不久的時候,當筆者回答這情況會變成一種常態時,大部分朋友都很難接受這個答案。但到了今天,大家都會明白到筆者所說常態的意思,現在才是真實正常的世界。與其不斷幻想可以生活在沒有政治風險的世界,即使政治問題不肯以政治方法解決,我們還是應該學習積極面對,改變自己的慣性思維,每一步都作出正確的選擇。

最後,2020香港資訊及通訊科技獎已經開始接受報名,資訊科技初創企業獎會由香港無線科技商會主辦。如果讀者是初創科技公司創辦人,有興趣參加比賽,讓更多人認識讀者的初創科技公司,可以瀏覽網頁https://www.ictstartup.org。



2019年8月17日星期六

社會運動下辦公室管理學

容志偉

2019年8月17日 信報 經管錦言 B8版

商業與政治從來分不開,或許部分香港人習慣了吃政治免費午餐,老闆們通常都會說:「我不會弄政治,也是中立的,請不要找我麻煩,也不要跟我談政治。」

在當下的香港形勢,很多老闆突然發現,除了在社交媒體沒完沒了的資訊分享外,政治更出現在自己辦公室的每一個角落,無論是同事間的交流甚至辯論,又或是有個別同事身上突然多了一些傷痕。即使過去2個月的工作上,團隊仍然能交出成績,但老闆們都會想到,幸福不會是必然的。

不久前,有位資訊科技中小企老闆向包括筆者在內的友好請教,怎樣解決一件於其辦公室內發生的人事管理事件。那位老闆的公司有位年輕軟件工程師,於元朗事件發生當晚,剛好和家人在元朗吃飯。他們在離開元朗時受到襲擊,幸好只受輕傷,但由於家人受驚,工程師便希望於事發後翌日請假,陪伴家人。請假時,老闆並不在公司,人事部主管基於規定,不是病假,事假又不是預早申請,也沒有家人入院證明,便不批准。工程師的反應是即時補一個月薪金辭職,更嚴重的是,該工程師同隊的另外兩位工程師知道事情後,也即時補一個月薪金辭職。

讀者可能會估計,這事情發生的原因有很多,例如不夠全面的人事管理政策,老闆跟人事部缺乏溝通,甚至是冰封三尺,非一日之寒的問題等。不容否認的直接原因是社會的政治事件,以及老闆各管理層並不理解年輕人的思維,遂作出不適當的管理行為。

在香港,無論是身經百戰的專業管理人,還是對商業策略案例的應用瞭如指掌的頂級商學院MBA畢業生,大部分都缺乏在社會運動和政治事件發生時的商業管理訓練和經驗。上述個案相信不是個別例子。老闆跟管理層在這些社會局面下應該怎樣處理?

商業理念不等同政治立場

首先,無論對社會事件有什麼看法,也不要強加於同事身上。即使在日常一言一行上,也不要像在暗地施壓,因為可能說者無心,聽者有意。即使員工在老闆發表看法時沒有反應,但會把感覺藏在心底。到員工遞交辭職信時,恐怕為時已晚。如果員工知道自己的看法跟老闆不同,其實也不輕易顯露出來。

有老闆便問,自己是老闆,為何自己的看法在自己的辦公室也不可以表達?這都是不少中小企老闆的心聲,也可以說是盲點。公司聘請及支薪給同事,同事的職責包括支持老闆的商業理念,卻並不包括支持老闆的政治立場。強行施壓,只會令同事情緒受到困擾,工作效率必然下降。

另外,如果在日常情況下,管理層發現同事的情緒受到困擾,正常都會嘗試了解及幫助。不幸地,在社會運動和政治事件發生時,不少管理層以至老闆卻一反常態,沒有幫助,反而責怪同事。

即使同事沒有親身參與社會運動和政治事件,從不同渠道傳來無間斷的資訊,也會導致同事情緒受到不同程度的困擾。無論對事件有任何看法,這也是人之常情。管理層以至老闆只須用日常情況下的管理方法,讓同事被情緒困擾的程度減至最低,以同理心蓋過政治立場,一切也會好辦。

上述兩點看似簡單,但能否執行,要看管理層和老闆的情緒智商。再想深一層,這些問題能否在源頭上便解決呢?即公司所聘請的管理層和同事都是跟老闆的政治立場一樣的呢?這是筆者跟其他老闆友好曾經熱烈討論的一個重點。其實答案顯而易見,即使在面試時應徵者能夠提供老闆想要的答案,但有辦法確認嗎?政治立場也可以隨時間大幅改變,當初回答的答案又可以作準嗎?

高位者放下身段與下屬溝通

另外,以這次社會運動為例,根據香港民意研究所較早前的民調,很大部分年輕和較高學歷的市民都對某個立場有強烈看法。從現實執行角度來看,要是老闆持有相反立場的話,是否可以完全不聘用年輕和高學歷的人呢?
很多老闆都說,自己對管理年輕人完全沒有問題,但這次事件是對老闆們一個嚴峻的考驗。離開工作崗位後,老闆和員工都是一個市民。如果老闆和管理層能夠放下身段,真心聆聽和認真思考年輕人的看法,很多事情其實也不難解決。大家願意一試嗎?

這是最好的時代,也是最壞的時代。香港人加油!

2019年4月13日星期六

人工智能的道德

容志偉

2019年4月13日 信報 經管錦言 B8版

上星期和兩位資訊科技巨企的科技總監及一位大學法律學院教授,為有關人工智能和道德的研討會作演講嘉賓。

人工智能發展一日千里,很多不同工作崗位,特別是要處理海量數據的位置,都開始由人工智能擔任。現在很多人工智能的應用仍然停留在數據分析、分類和總結,但也有人工智能已用來代人類作出選擇和決定。雖然人工智能提供極高的執行效率,但仍要面對一些人類擔任同樣崗位的道德選擇。人工智能會否以人類的道德標準來作決定呢?

道德問題的經典例子是「電車問題」(Trolley problem),即一輛煞車功能壞了的有軌電車,快將撞上路軌上的5個工人,而你有一個按鈕可以把電車轉往只有一個工人的後備路軌,你會怎樣選擇呢?如果操控按鈕的不是人類而是人工智能,人工智能又會怎樣選擇呢?

人工智能所學習的知識,無論是硬知識還是軟知識,都是人類所教。工程師設定人工智能架構後,便會提供訓練數據給人工智能學習。當然人工智能有機會很快便能夠自行找知識學習,但最初段所學習的知識,還是由人類所選擇的。

開發者難免存偏見

那人工智能學的知識是否中立呢?工程師和訓練數據的提供者,會否有意或無意下,灌輸了自己的道德價值觀和喜好給人工智能呢?如果沒有任何規則或開發標準,這是必然的。問題有算法偏見(Algorithm Bias)和數據偏見(Data Bias)。

算法偏見是人工智能在理解數據和應用時未能真正中立。現時的人工智能,仍然未能夠無中生有、舉一反三,因此工程師在設定人工智能架構和規則時,很多時已經明確指定了對於數據的基本反應。

自動駕駛人工智能便是其中一個例子。工程師在設定架構和規則時,基於自身經驗,認為若車輛發生交通意外,應該先要保護控制員位置,於是便定下了這規則(未來的真自動駕駛應該是沒有控制員的)。即使人工智能在訓練時學懂了這不是必然,但基於這算法偏見,應用時仍要遵守這規則。為何這條規則不是必然呢?因為在交通意外發生時,有機會是由於不先保護控制員位置,而可以讓控制員和乘客存活,只是全部受傷;如果先要保護控制員位置的話,就有機會導致控制員沒有受傷,但乘客會死亡。

數據偏見是,即使人工智能架構已經能夠中立,但由於用於訓練人工智能的數據本身有偏見,而導致人工智能在應用時也有偏見。例如翻譯用人工智能,如果訓練人工智能數據的翻譯句子,大部分醫生是男性,大部分護士是女性,人工智能很可能在翻譯時,會自動把醫生有關的句子用「He」,以及把護士有關的句子用「She」。

人工智能偏見,也可能作出違反了人類道德標準的判斷和決定。如果人工智能的應用在社會上受歡迎,更可能影響整個社會的道德價值觀。對於已經研究和開發人工智能多年的工程師來說,這些偏見問題並不陌生,對訓練數據是否中立也有相當的敏感度,有些更接受了法律道德的訓練。

工程師須加強教育

這幾年間人工智能發展迅速,數間資訊科技巨企更提供平台,讓更多工程師快速開發人工智能的應用,但很多剛開始認識人工智能的工程師卻沒有意識到道德問題。資訊科技巨企如Microsoft及IBM等,都設有人工智能道德委員會,以確保所開發的人工智能不會違反人類道德標準。筆者相信,如果有天人工智能闖出大禍的話,很可能是因為一些中小企沒有意識到道德問題,甚至不理會道德而開發的。那又會否有中小企老闆或工程師刻意開發會作出違反道德標準的人工智能呢?配備在帶有武器的無人機上,能自動搜尋人類並攻擊的人工智能,便是例子。

法律追不上科技,這差不多是每一代革新科技商用化都會發生的事。但人工智能可能造成的破壞是深遠而快速,社會是否只能讓商界自行約束,加強工程師的教育,便別無他法呢?沒有人希望科幻電影中人工智能控制人類的情節發生,但以人工智能現在發展的速度來說,並不是沒有可能。這是社會值得深思的。