中文大學校刊 二零二一年第一期

統失靈。要知道機器再神通廣大,尚且未做到百發百中、萬 無一失。既然如此,人類就必須隨時候命,準備在危急關頭 接手。然而在這次事件中,機師據報方寸大亂,面對故障手 足無措。這種情況下,雖說意外是因機器而起,但責任還得 由人類承擔。 「當然了,若機器繼續進步,有朝一日遠較人類可靠,我們 置身事外,也合情合理。當它們強大到這個地步,我們撒手 不管,其實反而更好。」Erler教授說。 不過暫時來說,機器還稱不上完全可靠,而阻力之一,正是 前文提及的黑盒問題。機器的思維如盤根錯節,窒礙研究就 不在話下,但這除了是個學術問題,亦引發一大道德爭議: 在尚未摸清其底蘊的情況下,使用人工智能是否魯莽?Erler 教授指,若我們只是找它們來下下棋,其表現又穩定,不知 其所以然亦不礙事。但說到講求程序公義的事情,如評估在 囚人士的重犯機會,使用人工智能時就萬萬不能不求甚解。 「最理想的當然是機器能夠講出理據,再由我們判斷孰優孰 劣。這不是說要鉅細無遺,對整個決策過程知得一清二楚, 反正這也不太可能。簡單一個理由,有時已經足夠。」所以 說人工智能之潮流縱然浩浩蕩蕩,人類的角色依舊重如泰山。 引起道德問題的,還有人工智能的偏見。前文提到,人工智 能習染人類的成見,後果可以十分嚴重。更可怕的是,人 們或會以為機器沒有情感,待人處事必定公正,以至其厚此 薄彼,大家亦不覺有錯,照單全收。談到無人車的偏頗問 題,Erler教授便舉了一個令人心寒的事例。 「早前有研究調查世界各地的無人車都在學習怎樣的道德規 範,發現一些社會認定上流人士的生命更有價值,應優先保 護。你想車輛以這樣的標準決定路人生死嗎?」 機器一日依賴人類教養,我們就有義務盡力消除這些偏見。 一眾開發者固然要確保用以訓練機器的資料多元齊全,但尋 常如你我者,其實也有責任。 「留意機器有否偏頗,積極舉報,是一件大家都可以做的 事。」Erler教授提到,電子商貿巨擘亞馬遜幾年前發現其 人工智能招聘系統往往將女性拒諸門外,最後決定停用。歸 根究柢,是公司一直陽盛陰衰,系統習以為常,奉為圭臬。 「某類人可能真的比較適合從事某種工作,所以機器才會選 擇他們,但是去是留、是生是死,有時就是出於赤裸裸的偏 見。這些問題要提出來,大家才能得知,然後着手解決。」 「我可是個死忠科幻迷。」Mik教授說。 機械人趕上以至超 越人類的橋段,反覆看過無數科幻電影的教授固然耳熟能 詳。但說到現實中機器會否發展出知覺、到時我們又是否要 再討論將機器人格化,教授卻一笑置之。 「到了那個地步,我們自會有更大的煩惱,再說那時你我都 應該不在人世了。了解過學者們真正在做的研究,你就會明 白人類科技的現狀、我們還要走多遠。」而正如不少人工智 能學者所言,機器的本意在於服侍人類;給予它們知覺,乃 自找麻煩。 「不再聽命於你的Alexa,還有甚麼意義?」Mik教授問。 Erler教授也認為,這樣的一個世界離我們仍然很遠,但哲學 家的工作,往往就是想人所不能想。教授之前在牛津的同事 Toby Ord 博士便寫了《如臨深淵》( The Precipice )一書,探 討人工智能失控等人類可能面對的危機。 「大家擔心的是,將人工智能的各種問題留待科技達到相應 水平時再討論,恐怕為時已晚。到時我們可能已錯失在其設 計上設限、防止它們失控的機會。」 超脫現世,遙想未來萬象,有趣之餘,確實也十分重要。但 不要忘記,我們眼下也有一大堆問題,亟待解決。面對現實 中人工智能帶來的種種挑戰,Mik教授以科幻迷身分說的這一 句,擲地有聲: 「科幻與法律,最好分得清清楚楚。」 AI:人算不如機算? 27

RkJQdWJsaXNoZXIy NDE2NjYz