私隱公署的《開發及使用人工智能道德標準指引》

正如世界經濟論壇創始人兼執行主席克勞斯•施瓦布(Klaus Schwab)教授所說,「人工智能有潛質為社會帶來巨大的益處,但先決條件是要負責任地使用它。」

香港公私營機構已作好準備,在業務經營中增加使用人工智能。然而,人工智能對私隱及個人資料的保障帶來挑戰,也可能對個人用戶的權益造成影響。香港個人資料私隱專員公署(「私隱公署」)最近發表《開發及使用人工智能道德標準指引》(「《指引》」),目的是促進人工智能在香港健康發展及應用,同時協助機構在過程中遵從《個人資料(私隱)條例》(第486章)(「私隱條例」)的規定。

甚麼是人工智能?不同文獻對人工智能有不同定義。一般而言,人工智能指一系列涉及以電腦程式和機器模仿人類解決難題或作出決策的科技。使用人工智能的例子包括臉容識別、語音識別、聊天機械人、數據分析,以及自動化決策或建議。由於人工智能技術現時仍在演進中,將來可能出現更多新的應用例子。

人工智能的重要性和風險

根據一份在2020年公布的研究資料,78%香港企業相信人工智能會帶來益處,並有助提升企業服務的質素和效率。由於數據是人工智能的命脈,配合《粵港澳大灣區發展規劃綱要》,健康地發展和使用人工智能可幫助香港發揮其作為區域性數據樞紐的優勢,亦可大大促進香港成為創科中心和世界級的智慧城市。

然而,使用人工智能作決策的道德考慮在國際間也備受關注,特別是當有報導關於使用人工智能而導致偏見及歧視。

對合乎道德標準的人工智能的訴求

有鑑於此,近年要求企業負責任地及合乎道德標準地使用人工智能的聲音不斷增加。在本港與這個議題有關的較早期刊物包括私隱公署在2018年10月發表的《中國香港的道德問責框架》。該報告建議機構在使用數據科技的時候,恪守三個基本的數據管理價值,即以尊重、互惠和公平的方式對待持份者。此外,很多國際機構,例如歐盟委員會、環球私隱議會和經濟合作及發展組織,亦特別為人工智能制定重要原則和實務指引。2021年4月,歐盟委員會建議透過立法手段監管人工智能。法案如果獲得通過,有可能成為全球首條專門規管人工智能的法例。

私隱公署的指引

雖然目前對於應否以立法或其他方式規管人工智能仍未有共識,現時是適當的時候向香港機構提供有關合乎道德標準地開發及使用人工智能的實務指引。

《指引》秉持以尊重、互惠和公平的方式對待所有持份者三大數據管理價值,並由此引申出七項適用於人工智能的道德原則,並且提供一份包含四個部分的實務指引。該實務指引按照一般業務程序而制定,在人工智能系統的整個運作週期裡,幫助機構進行系統管理工作。該七項原則,即問責、人為監督、透明度與可解釋性、數據私隱、公平、有益的人工智能、可靠、穩健及安全,均與國際認可的原則一致。

首先,有鑑於最高管理層的支持是成功的關鍵因素,《指引》建議機構建立內部管治架構,指導機構開發及使用人工智能。這個架構可以包含機構層面的人工智能策略及人工智能管治委員會,同時應向全體員工傳達人工智能道德價值的重要性,從而培養一種符合道德標準及尊重私隱的文化。

其次,《指引》建議機構及早並全面進行風險評估,確定並評估使用人工智能所涉及的私隱和道德風險,以為機構部署合適的風險緩解措施。要考慮的風險因素包括數據的使用量及數據的敏感程度、數據的準確性及可靠性、人工智能對持份者的潛在影響、該影響若發生可招致的嚴重程度,以及發生影響的可能性等。總而言之,機構應該以風險為本的方式管理人工智能。

機構應按評定的風險水平,決定人類在人工智能系統的決策過程中需要有多大程度的參與。

實務指引的第三部分聚焦於人工智能系統的開發和管理。開發人工智能模型的數據處理,只要是涉及個人資料的,就必須符合私隱條例的相關規定。人工智能應通過嚴謹測試才可使用,推出使用後亦應定期調校,確保其穩健可靠。機構應制定保安措施,保護人工智能系統免被攻擊及數據免於外洩。為確保人工智能模型持續可靠,機構應定期檢視風險,以及重複訓練和微調人工智能模型。

最後, 人工智能的使用應具有透明度,以展現機構決心恪守適用的法律規定和道德價值。機構亦應就人工智能作出或協助作出的決定提供解釋,並且在可行情況下,提供渠道給相關人士糾正錯誤之處、作出回饋、要求解說、要求人為干預及∕或拒絕與人工智能進行互動。

在這個日益以數據為主導的經濟環境裡,我相信信任是成功的關鍵。我期望《指引》能幫助香港機構管理與人工智能系統相關的私隱和道德風險,從而推動人工智能的應用,與此同時向消費者及其他持份者證明機構值得信賴,最終協助機構開啓成功之門。

大律師,香港個人資料私隱專員