SMC 資料庫
活動日期:2023年12月17日
主辦單位:台灣科技媒體中心
協辦單位:財團法人民間司法改革基金會(以下簡稱司改會)
活動背景:
司法院在112年2月6日發布第一次新聞稿宣布啟用AI量刑資訊系統,隨後8月27日再次發布新聞稿表示計畫運用生成式AI來協助法官撰寫判決。此後,司改會與其他公民團體於9月26日舉辦記者會說明對此議題的擔憂與呼籲。來自g0v的vTaiwan小組運用數位平台的力量,希望邀請多元利害關係人分享意見,蒐集統整後交給司法院參考。
台灣科技媒體中心關注正在發展中的科學/科技,其在社會上是否有充足且根據科技發展現況的討論,並認為科技發展與社會討論應該互相形塑。但是目前為止,該議題的多元面向尚未有機會展現,也極少有機會理解專家與大眾對於這一進展的看法。舉辦本活動的目的,希望讓法律專家與AI專家分享「生成式AI應用於協助法官撰寫判決」這一議題的見解,透過與談人和在場聽眾的參與,開啟公民社會多元討論的可能。
然本次活動並未廣邀各方專家與司法院代表出席,參與者也未仔細設計邀請對象(教育背景、年齡、地區、是否為利害關係人等)。
本場活動由台灣科技媒體中心發布臉書活動資訊及司改會粉專宣傳。
這是台灣科技媒體中心首次舉辦AI與司法議題相關的活動,或有不周延之處,期待未來有更豐富的討論。
補充資訊:
活動資訊:
本活動舉辦在2023年12月17日週日上午9:30-12:00,地點在司改會會議室,三位與會專家,分別是臺灣師範大學圖書資訊所特聘教授曾元顯、台灣大學語言學研究所教授謝舒凱、義謙法律事務所主持律師及司改會數位法小組召集人林俊宏律師,由台灣科技媒體中心執行長陳璽尹擔任主持人,工作人員分屬台灣科技媒體中心與司改會,出席參與者為11位。以現場舉手統計,約有半數是法律背景、半數是科技背景,對法律與AI皆有涉獵約為3人。
活動紀錄:
法律端的討論
今年八月,司法院宣布要以AI(人工智慧)來分析,為法官撰寫「不能安全駕駛」與「幫助詐欺」等兩種犯罪的裁判草稿,這讓包括司改會在內的許多民間團體與社會大眾感到震驚,並對此表達擔憂,雖然這在國外已有討論,但具體的AI系統如何訓練及其細節一直不明朗。
司改會等民間團體要求司法院公開AI系統的具體細節,包括它的訓練方式及應用範圍。司法院最終同意召開公聽會(2023年12月28日)。在公聽會前夕,司法院發布指引草案,其中包含AI判決只能輔助審判、使用者(法官)擁有完全的自主權以及系統設置時必須考慮風險管理等原則。
但司法院提出的指引草案似乎有許多進步空間。重要的是,判決的合理性、公正性和社會接受度是最基本的需求。在司法系統中應用AI是否能滿足這些需求?這將直接影響人類未來如何利用AI技術。
我們需要透明性原則來了解AI如何作用於法律判決,並且其運作必須是可解釋的。對於司法院的操作細節,公眾參與度低,許多細節仍不清晰。AI在處理高發案件如車禍、詐騙等方面的應用,目的是為了減輕法官的工作壓力,但對於AI如何影響判決現在沒有答案。司法院似乎更專注於降低司法人員的工作量而非評估AI對整個司法系統可能造成的影響。
法律領域可能存在偏見持續而且重複,現行法官的判決模式即存在類似困境。然而,法律應該也的確會隨著社會價值的演進而進步,甚至法律所開創的價值有機會引領社會改變。但,就如法官面對特定條件時有可能會做出特定判斷,AI的應用是否更可能固化過往的判決模式,導致無法反映社會多元和少數群體的價值,如原住民的特殊法律需求。法律判決追求的不僅是一致性和穩定性,而是根據每個案件的特殊價值做出考量。AI的資料若是匱乏,可能會系統性地對這些群體產生不公平的判決。
在現今制度下,法律演進與社會進步奠基在不斷的更新與調整,引進AI是否會使得法律見解僵化,不利於法律的健康發展,這是法律專業人士面對AI的未知發展感到困惑,對未來AI可能帶來變革充滿疑慮的其一原因。
從法治角度看,法官必須直接審查證據來裁判。AI介入處理證據時,會不會導致法官未能親見證據本身,違背直接審理原則?這種二手訊息處理可能破壞法律制度要求的直接審理原則。
面對AI輔助司法判決的疑慮,可能的解決方式是讓AI提供類似量刑參考資料,而非直接撰寫判決草稿,例如,提供不同酒精濃度相關的刑期參考,或基於被告年齡、教育程度的過往判決資料。這樣的輔助對法官是一種資訊來源,供參考而非決定。資料的整理與提供,若只是單純的數據匯總,可能不需AI,而是一個自動化的資料處理過程,或許能減少一些擔憂,但仍需考慮這些資料在沒有完整脈絡的情況下,是否可能誤導法官的判斷。以及資料的選取與摘要,本身就可能是基於價值選擇。因此,雖然AI輔助系統在證據分類和資料摘要上具有潛力,但我們需要謹慎定義其角色,以確保法律判決能反映人的價值和社會進步。這也是法律專業人士對於AI輔助判決所抱持的最大擔憂。
技術端的討論
司法院目前要發展的AI系統是否透明,讓各界有所疑慮,建議應開源其訓練資料及技術細節,以提高公信力。圖靈獎得主楊立昆提倡AI技術開源,強調這對技術進步的重要性。司法院應公開其AI系統的訓練過程與實驗數據,甚至程式碼,以允許研究者與利害關係人了解其運作並檢視可能的偏見。此外,AI的訓練應考量數據量的偏誤,避免法官成為AI的橡皮圖章。
AI之於司法系統的角色,在目前的階段,專家建議應是事後「輔助」,而非事前草擬;比如分析法官判決書中可能遺漏的要點。AI應該用於提升判決的品質,而非一鍵生成判決書。透過開源的方式,司法院的AI能力雖不及大型語言模型如GPT-3,仍能在司法判決中發揮輔助作用。這類技術的進展雖快,但是否有助於法官工作仍待觀察。
生成式AI的核心是透過機率模型預測文字,使生成的語言合理且流暢。早期科學家將語言生成問題簡化為條件機率問題,這種模型能夠根據上文預測下一個字詞的機率。現代的AI如Chat GPT等,能夠透過大量文本學習,自動調整模型參數,達到預測文字的目的。這種模型沒有固定規則,完全基於訓練資料。若資料中存在某詞,AI便能在合適的上下文中創造出新句子。儘管AI能夠創造出沒在訓練資料中的新句子,但這些創造往往是基於訓練資料中文字出現的模式。雖然這些語言模型的能力強大,但它們依然受限於所餵養的資料,且創造與捏造之間的界限模糊。AI的運用在法律判決上需要更多實驗和數據來證實其可行性,尤其是在處理特定或一般化案例時。專家建議,為了增加透明度和信任,AI的訓練過程和數據應該開源。
綜合討論
大型語言模型的不透明性與解釋性問題
從語言學的角度出發,應用AI在法律領域的挑戰,特別是在理解和運用法律語言方面。討論者指出,法律是建立在語言之上的知識體系,而AI在處理法律問題時,必須能夠理解和應用法律特定的語言用法。例如,在法律文本中「公然」這個詞的使用,可能與日常用語中的意義有所不同,這需要AI能夠準確識別和適應,但不確定是否能訓練AI系統辨別出這類細微的差異。
要應用AI領域在司法系統目前缺乏明確規範和標準,特別是在透明性和可解釋性,這是當前熱議且未解決的。討論者提到,即使科學家了解生成式AI的基本架構,其運作細節仍是待探索的過程。如果一個系統連專家都覺得不透明,如何能對一般人透明並易於理解?倘若研究者目前仍無法完全解決生成式AI的產出有時能接近人類的水準、有時虛構得能令外行人信以為真,就應該更謹慎看待生成式AI應用於司法系統的潛力。
不同的模型和訓練資料,會決定生成式AI的能力與產出。即使AI能夠彙總和分析大量資料,但其生成的結果可能不足以解釋或正確反映法律判決的複雜性。討論者建議,為了提高信任度,AI生成的判決書應詳細解釋其來源,讓法官和當事人都能清楚理解。若用目前AI技術的自動生成功能,與會者表示懷疑,認為這違反了透明性和可解釋性原則。
司法院AI系統開源,可能解決什麼問題?產生什麼問題?
討論者強調了開源在AI發展中的重要性,指出如果AI系統開源,可增進這些AI系統的透明度。與會者提出,台灣的判決書等資料是否足以訓練AI,有待嚴謹的實驗證實,因為過去的判決可能未包含新的觀點和價值。然而,若資料更為豐富,例如包括教科書或國外判決,也許可以解決訓練AI的資料量不足的問題。訓練資料的豐富性和時效性在設計AI系統時,需要謹慎考量,因為AI的有效性和準確性取決於可用於訓練的數據質量和範圍,這需要開源並納入不同研究單位的合作。
目前的AI系統,包括OpenAI的ChatGPT在推出之前,都經過嚴格試驗,例如不能透露個資、不能教導人類自殘、用毒、殺人等符合安全性的測試。透過嚴謹且標準化的測試流程,才能確保每一次修改的AI系統,能產生符合人類福祉的結果。就像開發疫苗,需有嚴謹的標準程序,在逐步擴大規模的過程中確保對人體無害,才能實際應用。目前國際上推出AI產品的競爭雖然激烈,但並沒有跳過嚴謹測試的過程,特別是安全性測試。司法院的指引,應納入系統佈署前嚴謹且可公開測試流程的研究結果。
然而,如果司法院AI系統開源,是否會導致各方(如企業或政府)開發出不同的系統,並且資源豐富的一方能訓練出更好的系統。這是否會影響司法系統追求的公平,以及實務上的攻防?以致司法院的指引,應考量具體落實的細節與實務方面的可能性。
倫理問題
科技應用在法律上的案例,就像過去人工驗票的過程逐漸轉向電子化,因其可量化、可計算,其應用的概念與方式相對透明、可解釋,是以民眾可接受也能理解。若有一天,AI變得更透明和可理解,是否應該讓AI在司法判決上發揮決定性作用?
但進一步問,如果AI能夠考量到少數族群或進步價值,並做出公平的判決,那麼它可能會比人類法官更進步。若這真的是可期待的前景,民眾屆時是否能自由選擇要AI法官或人類來審案?這樣的演變可能牽涉到更廣泛的基本人權,需要社會積極討論。
而AI最終是否會隨著人類價值而演進,抑或會重複偏見,目前在研究上仍缺乏證據。AI在司法系統中扮演不同的角色,之於司法系統的改變為何,仍不清楚。如若司法系統大量藉助AI,那若AI判斷錯誤時是否能翻案和尋求賠償?
即使AI可以被控制和調整,這本身也涉及許多價值取捨和判斷,更何況生成式AI所謂可控與調整,目前的可操作性極低。
總結
總結來說,與會者認為生成式AI若要應用於司法領域,挑戰在於可信度、可解釋性、可問責性、是否重複偏見、是否違背直接審理原則、生成式AI應用於司法的角色,以及該系統訓練資料的品質與資料量是否足夠,此外,訓練資料的代表性亦是問題。系統完成之前的測試實驗,設計是否得當、過程是否嚴謹透明,都是應用AI於高風險任務時,應當要考量的因素。
「生成式AI應用於司法系統」這一命題,與會者經討論後,認為首先需要學術界的投入和研究這些AI系統,理解不同模型、訓練資料及其產出的質量,並公開實驗方法和數據。根據這些研究結果制定指引,有了指引,才開始開發系統,並進行社會影響評估,包括司法體系中可能的使用者,AI模型應用於司法系統的方式和影響,納入利害關係人的意見,讓民眾了解如此變革對個人權益的影響。
現階段若要導入AI,應以分析人類撰寫的判決書是否考量周到為宜,而這不僅是目前AI系統的強項,也是目前較安全的作法。
隨著計算能力的快速提升,在未來五至二十年內,每個人都將能在自己的電腦上使用AI,這將對每一個人以及司法系統帶來重大變化。要應用生成式AI在司法領域須採謹慎、開放且透明的態度,並事先訂定測試規範。AI的發展是人類了解自己並向前邁進的機會,相關的研究與討論必須與之共進。