為什麼警察可以開罰單,而監視器不可以?「因為警察有通過國家考試,監視器沒有」,國立臺灣大學國家發展研究所教授劉靜怡笑著說。
過去,我們對人工智慧(Artificial Intelligence,簡稱AI)的理解,往往來自科幻小說和電影;然而,複雜而迷人的AI並非遙不可及的未來,其實我們早已身處其中。例如,聊天機器人取代真人客服、工廠用AI挑出瑕疵品提升生產良率、銀行推出智能投資和理財機器人、達文西機器手臂的微創技術顛覆傳統外科手術。
看似潛力無窮的AI,也正一步步踏入法律領域。有沒有可能,有一天AI可以開罰單、預測判決,甚至出現AI法官?當人工智慧代替人類執行國家公權力時,又會如何改寫法律上的權利義務關係呢?
當人工智慧代替人類執行國家公權力時,需要提供AI什麼樣的法律基礎?AI會改寫法律上的權利義務關係嗎?
圖片來源/Unsplash
從量刑預測到AI法官,人工智慧是法律人的好幫手?
綜觀人工智慧涉及的法律議題,「量刑」是國內外都積極嘗試的項目。例如臺灣有學術團隊研發「AI人工智慧協助家事判決預測系統」,預測父母離婚後,子女的親權會判給誰;美國法院運用COMPAS系統推估被告再犯率;愛沙尼亞計劃開發處理小型訴訟案件的AI法官。
這些系統有的已付諸實務,有的還在研發階段,為什麼法律界希望借助AI作為量刑依據呢?除了為人類分憂解勞、消化積存已久的案件,劉靜怡說:「真正的原因,是我們不希望個別法官的判斷有太大的差異,我們希望類似的案件能做類似的處理,這也是法律所追求的公平之一。」
迎接AI來襲,各國政府紛紛端出策略報告,法律人也積極投入人工智慧的法律議題研究,劉靜怡直言還有一段長路要走。不過眼下AI確實能有貢獻之處,「法律裡有很多決定是比較常規化、規律性高,例如你超速被拍下來,超速多少罰多少,這些交通事務絕對比親權判決、繼承或刑事量刑更常規化,這樣的工作就很適合由AI來做」。
但問題又來了,當監視器拍到違規停車,它可以直接開發單嗎?答案是不行!劉靜怡說:「因為法律不容許這麼做,警察開罰單是代表國家行使公權力。如果要讓監視器開發單,接下來的問題是你要在法律上提供它授權基礎。」
AI判決預測系統是如何煉成的?
科技的準確度很高,可以聽它的就好嗎?人類會不會被人工智慧取代?在回答這些問題前,劉靜怡認為要先了解人工智慧的技術是如何生成?
如果要打造AI判決預測系統,必須先蒐集並分類大量的判決、找出關鍵字、準確的編碼(coding),將巨量資料(big data)轉化為可用的資訊,再讓機器學習(machine learning)並做出預測,最後提供法律人做出決定。看似程序化的流程,其實步步都是挑戰。
劉靜怡為芝加哥大學法學博士,長期關注網路科技、國家資訊政策與人工智慧治理中的法律議題。
攝影/黃詩茹
劉靜怡說:「如果法官必須仰賴AI作判決,『數據品質』就非常重要,你到底選了哪些判決讓機器學習?」判決品質有好有壞,同樣的法律規定,有些人判得重,有些人判得輕,個案情況又有所不同。在「餵」給機器之前,編碼就是一項費時耗力的大工程。
說到這裡,劉靜怡問:「判決中常出現『非不得為』、『不得不』的文字,這樣的意思到底是可以,還是不可以?」
編碼牽涉到文字系統的複雜度和法律文字的特殊性,「無論再怎麼白話,法律還是有專門的表述方式,以及法官如何在判決中,用文字把法律概念鑲嵌到事實裡的問題,所以編碼本身就很困難」。
編碼的品質決定資料的品質,但要下多少標籤,才能將判決轉換成有用的資料?如果設計系統、進行編碼的人都不理解判決的意義,如何正確地訓練系統?劉靜怡說,編碼並不是機械式的貼標籤,而是必須把判決讀懂、做出正確的分析和摘要,才能精準註記。
「背後龐大的人力資源是你難以想像,如果做得好就會是好的系統,但談何容易?坦白說,要讓AI變成非常精確的裁判替代者,還有很長的路要走,而且可能是相當困難的」。
當機器出錯時,人類怎麼接招?
AI判決預測系統的出現,雖然有助於減少人為偏見,卻也引來黑箱、不透明的質疑。劉靜怡提到,已有實證研究指出,在某些國家,有色人種、在某些地區出生,或擁有某些家庭和教育背景的人,在刑事案件中會被判較重的刑度、或較長的刑期。「AI學習這些資料時,可能會把過去判決中對於有色人種、少數性別或弱勢族群的偏見複製進去」。
群體偏見也是演算法衍生的黑箱爭議之一,當AI產生不公平的結果時,法律如何發揮權利保護的功能?
圖片來源/Unsplash
除了在編碼的過程中,將個別法官的價值觀或社會的刻板印象灌輸給機器外,偏見也可能來自法律界內部的因襲。
「預測系統是告訴你,如果有什麼狀況,法官通常會怎麼判。所謂『通常會怎麼判』,除了法律規範,很多時候是如果不這樣判,案子可能被撤銷發回,所以法官也會自我制約而選擇那樣判,這是內生的」。
所以人工智慧究竟有沒有可能取代法律人扮演的「推論衡量」的角色?劉靜怡認為,AI量刑系統或判決軟體無法代替人類找到一個完美的、唯一的、或毫無偏見的判決。
「它只是告訴你,過去遇到這樣的狀況會得到什麼樣的結果;但不會告訴你要如何克服過去的偏見和判決本身可能的錯誤。它畢竟是從經驗創造出來的東西,因為這些資料就是人類社會如何解決各種紛爭的經驗」。
學習自人類經驗的人工智慧,是否可能取代法律人扮演的「推論衡量」的角色?
繪圖/Yent
人類面對AI始終有股複雜的心情,有的人樂見AI起飛,認為政府應該收起管制的手以鼓勵創新;有的人恐懼AI失控,要求政府預先立法管制人工智慧的發展方向。劉靜怡則說:「我對科技的發展是一半樂觀,一半悲觀。」
但她認為除了選邊站,我們更應該問:在機器犯錯時,可以怎麼處理?「有時候機器犯錯我們會發現,因為太不對勁了;有時候我們根本不知道它做錯了,所以問題在於怎麼稽核和除錯」。
她也看到,在這段防疫時間,媒體常過度使用大數據、人工智慧、數位防疫等詞彙,看起來酷炫卻容易誤導大眾想像,「民眾會樂觀地以為機器非常萬能,其實機器目前能做的事情還很有限;或者悲觀地覺得人的權利岌岌可危,人會被機器取代或物化,我覺得這些都需要再去分辨」。
當我不想被研究,可以選擇退出嗎?
AI提供預測和決策的本質,在於不斷地形塑剖繪(profile)個人,透過收集個人的經濟、健康狀況、偏好、行動軌跡等資料,建立評估、分析和預測的基礎。在這樣的情況下,個人隱私與資料自主性是否會受到侵害?政府規範又該如何嚴肅以對?
劉靜怡認為有兩種權利特別重要,一是「獲得解釋的權利」(right to explanation),二是「退出的權利」(right to exit)。
「獲得解釋的權利」,是指當我們的權利因人工智慧參與決策而受到限制或損害時,人工智慧應該提出論證、說明決策的理由,「法律最重要的就是給理由、說理,讓大家來檢驗理由是否正確」。至於「退出的權利」,是指法律是否容許個人在符合一定條件下,選擇退出AI作成的決策影響圈,只接受單純人為決策的權利。
人工智慧治理下,個人是否有權利選擇退出AI作成的決策影響圈?
繪圖/Yent
劉靜怡以「最高行政法院106年判字第54號判決」為例,民間團體拒絕將個人全民健康保險資料用於健保相關業務以外的目的,因此提起行政訴訟。這個案件涉及的討論包括民眾是否可以拒絕個人健保資料被用於學術研究、保險方案制定等就醫以外的用途?以及過世的人已經沒有健保行政需求,親人是否可以要求刪除健保資料?
她提到,《個人資料保護法》最重要的原則,是除非當事人同意或涉及重大公共利益,不得將個資做目的之外的應用。「法律中有個資刪除和個資修正的規定,但我們會遇到一個問題,尤其是當涉及和政府有關的資料庫時,常可以找到理由說不能刪除,因為刪除是不效率的」。
法律背後,還有深刻的哲學問題:已經死亡的人有義務參與學術研究嗎?「但我們通常不去想這些問題,於是產生許多爭議」。在該案中,最高行政法院以健保資料庫可供國內健保相關研究、提升醫療衛生發展為理由駁回請求,目前正在等待大法官釋憲。
一卡在手好方便,我的個資誰來保護?
近來國際間政府機關與企業被駭客攻擊的事件時有所聞,資安問題也成為人工智慧治理的隱憂。劉靜怡說:「資料庫被駭,涉及的不只是資料被偷走,更大的問題是,駭客把資料偷走後做了什麼?」
以戶籍資料為例,有心人只要比對相關資料,就能讀出某人有哪些鄰居、去哪些地方進行哪些消費?這時候,擁有龐大個資的人工智慧加上行銷的投放技術,會發生什麼事?
政府掌握國民個人資料,提升治理效率的同時,資安風險、隱私權退後的法治課題仍須審視思考。
圖片來源/Unsplash
「以前的假消息是鋪天蓋地亂撒,現在可以利用AI做更精準的投放。甚至為你的社區客製假消息,引導你的思考,進而影響選舉,這可能會讓我們的民主因此癱瘓」。
劉靜怡認為,在「演算法社會」(algorithmic society),「治理」與「監控」本就是相依相生的難解問題,科技確實讓治理更有效率,卻也是最好的控制工具。「人民有沒有權利主張,我不想被人工智慧治理?大部分的憲法學者還是相信,人有某種程度的離群索居、不被打擾的權利」。
如果有一位國民,因為不願意接受人工智慧治理,而喪失國民基本權利,意味著什麼?「意思是政府有可能藉由限制或剝奪人民的基本權利(比如:參政權)強迫你受監控,如果你不接受機器統治,就被驅逐到生活共同體之外」。劉靜怡認為,人工智慧很可能讓一個群體一不小心就踏入完全不同的統治模式,而且和這個國家是威權或民主沒有必然關係。
演算法社會中,「治理」與「監控」是相依相生的難解問題,劉靜怡認為,AI時代的「公民」概念可能變成program citizen。
圖片來源/Unsplash
人工智慧衍生的倫理與法律問題,也是在討論民主社會如何避免「演算法社會」成為「黑箱社會」的議題。劉靜怡說:「在AI時代,『公民』的概念可能變成program citizen」,利用個人資料,透過各種程式、軟體和機器來定義何謂公民。
「但我們沒有把問題談清楚,在什麼樣的情況下,我們願意被監視到什麼樣的地步,以換取什麼樣的方便?我們把它變成非黑即白的命題,中間沒有光譜,沒有類型化,也沒有討論,這是最大的問題」。
法律人,做文藝復興人吧!
人工智慧從四面八方襲來,法律人該如何接招?劉靜怡說:「其實每個環節,法律人都有介入的空間。」
她認為法律人最基本的工作是告訴產業,法律管什麼?業者要怎麼解決?至於法律不涉及的部分,業者有哪些優勢和風險?另外,法律人可以針對新興的AI產品應用推動政策、設計法律規範;當糾紛出現時,法律人也能協助解決。她也建議人工智慧的設計者和法律人開啟對話,「讓正確的法律價值、倫理價值在研發過程中就放進去,可以避免很多後續的倫理問題或價值判斷的困境」。
同時,她對法律人的養成還有更多期許,「法律人的基本功要練好,也要努力了解法律以外的世界,讓自己成為『文藝復興人』。對這個世界的必要知識有一定的掌握和理解,不要失去對知識的興趣,才有辦法用法律專業進行對話,這都是法律人可以貢獻的地方」。
採訪撰稿/林希庭
編輯/黃詩茹
攝影/黃詩茹
劉靜怡(2015)。巨量資料相關應用國際規範趨勢之比較研究。科技部專題研究計畫(推動規劃補助計畫)。
劉靜怡(2018)。人工智慧潛在倫理與法律議題鳥瞰與初步分析—從責任分配到市場競爭。載於劉靜怡主編,人工智慧相關法律議題芻議(頁1-45)。臺北:元照出版公司。
劉靜怡(2019)。人工智慧治理架構下的法學路徑。科技部專題研究計畫(一般研究計畫)。