中文大學校刊 二零二一年第一期

不過人工智能也是有其缺陷。 羅淑莉曾比對她採用的人工智 能模型和經典的統計分析法,發現前者在辨別貼文情感方面 表現不太理想,最後在研究的其中一部分索性回歸傳統。何 教授估計模型或需加強訓練,但這是否就是問題的癥結,恐 怕誰也說不準。不少人工智能程式有「黑盒」(black box) 之稱,講的就是其決策機制錯綜複雜、模糊不清,如在黑箱 中作業,以致一旦犯錯,問題始末難以查究。而無論如何, 人工智能本來就不見得比傳統的分析法更善解人意。 「把情感按正負面分門別類,人工智能是辦得不錯的,但說到 辨析情感的強弱程度,它還是束手無策。」羅淑莉分享自己用 人工智能作情感分析(sentiment analysis)的心得。「即便簡 單如分類,它也就只懂正負中立之分。你若硬要它分得細緻一 些,具體說出情感的性質,結果大多會是一團糟。」 那麼要人工智能讀懂譏諷、暗示之類的遁辭,自然是難上加 難。文首貼文的反語,常人一看就明白,對電腦來說卻不 然。何教授指,學界也不斷在嘗試令人工智能看得透上文下 理、聽出弦外之音,但暫時來說,機器遇着數據隱晦精微之 處,還是要靠我們導正。這也解釋了為何人工智能蔚為風 潮,卻始終未能在公共行政領域完全取代人類。 「大眾對人工智能做到甚麼、做不到甚麼,仍有很多誤 解。」黃教授說。教授曾參與環太平洋大學聯盟(ARPU) 一項關於人工智能與社會進步的研究,一直思考機器可如 何改善社會。「應付換車牌、派消費券這種瑣事,人工智 能綽綽有餘,反正就是對對資料而已。但撇除此等普通技 能,人工智能還剩多少本領?」以大學收生為例,校方看 學業成績之餘,也會留意學生的品性。對人類而言,要判 別一個人是否有原則、正直、樂於與人溝通等等,不是難 事,畢竟我們都經過社會洗禮,對人情世故有所認知。但 電腦又如何?在機器眼中,世間萬物俱是一堆數字和規 則,然而人之稟性氣質,怎能以邏輯與算術概括?看來要 讓人工智能代替中大各位同事招生,還是不太可能。 「又例如有人會覺得,讓人工智能參與法庭審訊可保裁決公 正,但我們要從哪裏找來一條可以量度犯人悔意的方程式?」 黃教授這個例子,恰好道出人工智能另一大弊端:機器長着 一副鐵面,卻不見得無私。上文提到,人工智能的思維模 式、行事準則,皆學自人類選來的範例。人性使然,我們揀 選樣本時難免會有偏袒,何況樣本也者,本來就是以偏概 全。上樑不正,下樑又豈能不偏不倚?若是像羅淑莉和何教 授般研究深圳這種年輕人口較多的城市,借助一套依賴社交 媒體數據的人工智能分析法倒也無妨。但說到為公共機構 招募人才、選賢任能,以人工智能之眼界,只怕它們愈幫愈 忙。電腦以現有的僱員作樣板,選出來的人自然都是同一副 模樣。不落窠臼,反而無緣入幕,「塘水滾塘魚」下,機構 難有變革。而假如機構原來一直歧視某類應徵者,電腦有樣 學樣,更是播其惡於眾也。 「不過也多虧人工智能的種種流弊,暴露為師作範的我們一 路在樹立怎樣的榜樣。比起花時間想着把責任推卸給機器, 我們更應趁機反省人類的各種偏見陋習,好好想想機器是怎 樣學壞。」黃教授說。 在數據年代安身立 命,說穿了就是懂 得用數據改善生活 而不受科技奴役。 人工智能:社會 黃偉豪教授 數據科學與政策研究課程主任 8 中文大學校刊 二零二一年第一期

RkJQdWJsaXNoZXIy NDE2NjYz