一帶一路系列: 智能發展無極限?

A.I.(人工智能)這兩個簡單字母所令人想到的,可能是一個被機器人主導的世界。然而,它的真正意思是甚麼呢?

它是一如其名,指一種人工或合成的智能,從而使某項程序或某個機器人,得以執行通常由人類或動物所執行的任務。儘管人工智能目前並沒有一個確切定義,但通常我們可以將它歸納為:通過使用運算法則、方程式、大數據學習、過去的經驗等,將一種事物與另一種事物聯繫起來的能力。

事實上,它也許在我們沒有給予太大關注的情況下,悄然進入了我們的日常生活中,我們可在智能手機(特別是那些安裝了可給予回應及向我們「講話」的程序的手機)、辦公室個人助理程序、棋類遊戲、汽車等發現其蹤跡。這些新科技使用人工智能,目的是使我們的生活具更高效率,而它的潛力也無極限。

然而,它除了能為我們帶來便利外,也產生了監管和責任方面的複雜法律問題。了解箇中發展情況,考慮是否需要在自身的領域作出監管,以及應如何與其他司法管轄區協調人工智能產品的開發與使用,都是我們需要加以探討的重要問題。

本文論述一些須予探討的法律責任問題,以期能建立一個可供發展人工智能,又能為人工智能產品的消費者和用戶提供安全保障的架構。本文所舉的例子屬於假設性質,並非以任何現有產品或研究開發作為依據,但它有助我們思考法律責任方面的問題。

監管和責任

究竟是否需要制定與人工智能有關的法例,過去一年雖然已經多所討論,但概念仍然顯得模糊,而所需的監管程度(如有的話),仍同樣籠罩在不確定的情況之中。

我們需要考慮監管及法律責任方面的問題。最終,誰要對人工智能所可能導致的失誤、疏忽或損害負責?

人工智能機器人?

是否可以由人工智能機器人(倘沒有外在形式,則為人工智能程序)來承擔責任呢?這問題涉及倫理觀念,以及我們是否願意承認人工智能機器人/程序就好像人類一樣,可為其自身的行為負責。對於所蒙受的損害和損失,它們究竟可作何賠償呢?理論上,如果我們需要人工智能機器人/程序為失誤負責,便等於是說,它們應首先獲得賦予權利。這一概念,涉及許多基本權利方面的問題,包括它們在未來,是否應當享有類似人類所享有的權利?

讓我們試從「一帶一路」計劃來思考這一概念。「一帶一路」計劃的推展範圍,遍及70多個司法管轄區,當中包含一個龐大並正在迅速發展,且具有不同宗教、文化背景的交易平台-這些皆為對政策和法律的制定構成影響的因素。至於是否可向人工智能程序追究責任,這些國家可能會有各自不同的看法。假如不同的群體,在根本上對人工智能抱有不同的看法,那麼當出現這方面的跨境糾紛時,性質便會更形複雜。

法律應盡可能維持確定性,如果某些國家的法規,規定人工智能機器人需要承擔責任,而另一些國家的法規,則規定須由操作人員/製造商/編程人員承擔責任,那麼與跨境貿易有關的法規將會欠缺清晰度和明確性,尤其是如果所蒙受的損害足以構成刑事罪行的話(在這情況下,當事方將不可以藉合約免除有關責任)。

操作人員?

假定我們不欲探討機器人和程序是否需要承擔責任,我們便必須考慮,操作人員、製造商或編程人員是否需要對其他人所蒙受的損失或損害負責?

在某些情況中,人工智能機器人/程序的操作員,可能只是一名普通的工作人員,他只負責按下啟動人工智能程序的按鈕;又或是,他只是一名坐在自動駕駛汽車前座的乘客。他也許並不知道該系統存在一些甚麼潛在缺陷,又或是他並不能夠對該人工智能機器人/程序的學習施加任何管制(這些機器人/程序有可能學習了一些錯誤的東西,並將其擴大)。

讓我們看看以下的一個假設性例子:

假設有一個由人工智能驅動的烘焙機器人,是由一名操作員負責操作。該操作員將按鈕按下,烘焙出一個結婚蛋糕,但機器人錯誤地將鹽(而並非糖)加入該蛋糕中,故這個蛋糕造出來後,並不是顧客所原來要求的味道,但這一問題無法在該顧客的婚禮中及時作出糾正。如果該名操作員已給該機器人提供了一切足夠的原材料,他是否仍需要為這一趟失誤負責呢?假如該機器人從大數據中(當中的信息並非經常準確)「學習」到:糖份少一些,食物將會更健康,它因而故意將鹽放入其中。在這情況下,有關責任應該由誰來負呢?該名操作員是否需為此負責呢?

編程人員和製造商?

假如出現某些情況,以致該名操作員無法控制該人工智能機器人/程序,從而給第三者造成損害和損失,編程人員是否需要對此負責呢?他可能只負責編製有關程序,並賦予該程序從大數據學習的能力,而一旦該程序脫離了編程人員的手,編程人員便無法對它作出管控。

在考慮編程人員之潛在責任的同時,也許我們亦需要考慮:容許該程序運行的硬件製造商是否應為此負責呢?

讓我們再來看另一個例子。假設有一個閉路電視保安系統設有與機器人相聯的人工智能,能夠透過各種方法制止所面對的威脅,包括:發出口頭警告、通知警方,以及在極端情況下,向其所面對的威脅發射子彈。該程序的編寫,是為了讓該系統能夠識別威脅的存在(例如,當有人被利器指嚇而發出尖叫時),以及學習有哪些是新出現的威脅。但假如該程序錯誤地以為,任何響聲的出現,便意味著存在重大的威脅,它有可能會不當地啟動發射子彈功能,以「制止威脅」的發生。例如,假設有一群人在安裝了該保安系統的場所附近高聲交談,而該系統將所測度到的音量水平,定性為當時存在重大威脅,於是向該人群發射子彈,並導致他們受傷-在這情況下,誰要對這事件負責呢?發射子彈的機器人如果是因出現毛病而失準,以致把子彈射向其他路人,誰又需要為此負責呢?

我們除了需要考慮人工智能機器人在學習和執行指令方面所可能出現的毛病外,也必須針對不同司法管轄區之規定,確立「制止威脅功能」的適用範圍,因為不同的司法管轄區在保護處所的方法上會有所不同。該人工智能程序假如具備學習能力,並能夠開發自身的評估和反應功能,這也許是一個須加以考慮的問題。

除了以上的討論外,在責任承擔方面也許還會涉及其他當事方。上述的假設性例子,旨在提出一些值得我們思考的問題,而其他需要探討的問題,還包括可預見性、因果關係等方面。

建立框架

這些都屬於棘手問題,而我們應如何看待這些問題,很大程度上取決於我們的法律,以及我們的人文和道德倫理觀。

也許可以考慮成立一個政府部門,邀請專門技術人員、決策者、社會科學家、法律專業人士、在開發人工智能技術的行業中工作的人士等,共同深入研究如何規範和發展人工智能技術,使它一方面可以為大眾提供保障,另一方面不會對科技的發展帶來不適當限制。

目前有一些法例可適用於某些涵蓋人工智能使用的情況,政府可發出相關指引以對其作進一步的補充。

人工智能技術的使用有可能涉及跨境性質(尤其是在使用人工智能程序方面),故確實有需要就有關的監管設立一個國際專家小組,為人工智能的使用擬訂公約,從而明確各方的責任。儘管人工智能的技術發展並無極限,但我們需要訂立相關的管控措施,以確保其不會對社會帶來巨大破壞,並使有關責任更為清晰明確。

誠意邀請

香港律師會正籌備假灣仔會議展覽中心舉行第二次「一帶一路」週年論壇,時間是2018年9月28日,而本年所討論的一個重點將會是科技。

會員如有興趣與「一帶一路」沿線國家的同業深入探討人工智能和相關法律議題,請勿錯過這一機會。

Jurisdictions: 

翰宇國際律師事務所 律師

岑顯恆有廣泛的諮詢及爭議性商業事務經驗。她專注於電信業務,並就數據私隱,網絡安全與技術事宜提供建議。  她曾在各種訴訟程序中擔任法律代表,並且是經認可的一般事務調解員。