議題背景:

臺灣預計9月提出「人工智慧基本法」草案,目前行政院初步可能納管廣播電視、有線廣播、衛星廣播等媒體及頻道業者使用生成式AI如ChatGPT來產生內容。全球也已有一些近期監管AI的重大方向與作為可參考。台灣科技媒體中心整理幾個近期重要資訊如下。

  • 歐洲:歐洲議會(European Parliament)於5月11日核准一份人工智慧(AI)監管法案,已於6月14日通過草案,成為全球首個監管AI的法案。 Google也主動與歐盟主管機關商討AI法規,接下來將繼續修正成為正式法案。根據歐洲議會新聞稿,此草案是為了確保人工智慧系統受到人的監督,確保人工智慧是安全、透明、可追溯、不會有歧視,且是友善環境的。草案中提及應禁止人工智慧生物辨識、情緒辨識的技術用於監控、應禁止預測性警察活動的技術,以及應量身訂製常用AI模型例如ChatGPT的相關規範。
  • 美國:美國參議院司法委員會於5月16日舉辦監管AI的聽證會,會議上OpenAI執行長阿特曼(Sam Altman)提出建議監管AI的層面包含,建立專責的機構以許可AI的相關證明、制定AI模型的安全標準,以及尋求專家根據指標來審查AI模型的表現。
  • 國際會議:在日本廣島舉行的七大工業國組織高峰會議(G7)中,與會代表於5月20日聲明,各個會員國家可能是用不同的方法和目標發展可信賴的AI技術,但共識都是讓監管數位科技如AI的法規,符合彼此共享的民主價值。G7會員國代表同意將在今年底召開論壇,討論生成式AI帶來的問題,例如版權和錯假訊息。
  • 澳洲:澳大利亞工業科學資源部於6月1日發布一份討論文件〈澳大利亞安全與負責任的人工智慧〉(Safe and responsible AI in Australia)支持負責任的人工智慧,這份討論文件著重在治理人工智慧的機制,確保在澳洲可以安全使用AI、負責任的開發AI。這些機制包含管理的規定、標準、工具、框架、原則,以及商業應用。這份文件內容是以最近澳洲國家科學技術委員會的首席科學家辦公室(Chief Scientist)發布的另一份報告(Rapid Response Information Report: Generative AI)為基礎。

由於監管與規範人工智慧將影響學術研究,台灣科技媒體中心邀請臺灣研究人工智慧的專家依據自身研究經驗發表看法,藉此次機會讓更多人看見研究人工智慧的科學家們的專業意見,有助於促進基於科學觀點的公眾討論,也讓相關制定規範或法案的單位有更多機會採納多元的意見。

專家怎麼說?

【許志仲】【林春宏】【謝舒凱】【林守德】

2023年06月29日
國立成功大學數據科學研究所暨敏求智慧運算學院資料科學中心助理教授 許志仲

1. 我們的認知是人工智慧有不同的研究方向、學理、技術,以及產出的應用,您認為哪些性質的人工智慧需要優先監管?

一般來說,人工技術通常分為辨識任務、生成任務、以及輔助(如資料分析或其他)等方向。目前相對較為主流的AI生成模型,可以產生以假亂真的圖片、文字、語音等資料,影響最為明顯,優先監管是必然。舉例來說,常見的 DeepFake 的危害,會導致網路上的多媒體資訊不受信任,甚至影響經濟與社會和諧等。然而,不能忽略的是各種人工智慧模型,只要該模型能介入日常生活,便需要受到監管。舉例來說,有些公司開始採用以人工智慧來分析面試者甚至現職員工的未來表現,以利上位者簡單做出資遣或不聘任的決策,而這些人工智慧方法在訓練過程中是否有所偏頗、分析過程是否合理,都須有相關規範,才能同時達到社會和諧與提高效率的目標。

2. 監管和規範人工智慧,代表無法再繼續發展特定的研究領域,或是研究方向受限嗎?

我認為監管與規範是幫助人工智慧在發展技術的過程中,可以最大化對社會每個個體的效益並最小化風險的一個好方式。比方說,AI for Social Good 是 Google 於 2019 年提出來的策略,其中沒有任何一條是限制研究的發展,相反的,這是給研發 AI 的科學家一種指引,使其研發可以更專注在未來人類社會更有助益的方向。舉例來說,如果很早期就已經制定好生成模型的相關法規,那麼現在網路上看到 DeepFake 的多媒體訊息可能相對少很多,但並不會影響生成模型的研究發展。

3. 臺灣的人工智慧研究或發展,和國際其他國家或區域有何不同之處?若臺灣要參考國際其他國家或區域的人工智慧監管規定,如何制定符合臺灣情況的規範,或設立專責的機構?

我個人認為人工智慧監管有其通用性,全球應設法制定一個通用的準則,各國再依據自身情況加以微調。舉例來說,台灣在於半導體相關產業非常強大,因此,應用於半導體相關人工智慧的監管,可能就要與其他國家不同,並且必須要產業、社會、以及政府三方共同加入法規制定,甚至建立相關專責機構,方能達到最大效益。

利益聲明:無利益無關。

2023年06月29日
國立臺中科技大學 資訊工程系教授 林春宏

1. 我們的認知是人工智慧有不同的研究方向、學理、技術,以及產出的應用,您認為哪些性質的人工智慧需要優先監管?

(1)自主性人工智慧:自主的人工智慧系統需優先監管,以確保合乎倫理和法律。
(2)高風險領域的應用:在高風險領域的學術應用中,優先監管人工智慧,以保障人類的生命、健康和安全。
(3)個人隱私和數據保護:學術領域中的人工智慧處理大量個人敏感信息,需優先監管,確保隱私和數據保護。
(4)偏見和不公平性:需要優先監管可能存在偏見的人工智慧系統,以確保公平和無歧視的應用。
(5)系統安全和韌性:需要優先監管具有高風險應用的人工智慧系統,以確保其安全性、韌性和可靠性。
(6)學術詐騙和不端行為:人工智慧技術的濫用和應用於學術詐騙或不端行為的風險需要受到監管和防範。
(7)知識創作和知識所有權:人工智慧系統在學術領域的應用可能引發知識創作和知識所有權的問題,這需要進一步的監管和探討。

以上監管措施的目的是保護公眾利益、確保人工智慧的應用是安全、負責任和符合道德的,同時促進人工智慧的持續發展和創新。

2. 監管和規範人工智慧,代表無法再繼續發展特定的研究領域,或是研究方向受限嗎?

監管旨在確保人工智慧的安全和負責任使用,減少潛在風險的影響。目標不是完全限制研究方向,而是鼓勵創新和學術自由。監管的目的是確保人工智慧的安全、公平和負責任的應用,以保護人類利益和社會福祉。

3. 臺灣的人工智慧研究或發展,和國際其他國家或區域有何不同之處?

(1) 技術實力:臺灣科技強大,有優秀人才和研發環境,致力於人工智慧技術開發和應用。
(2) 產業應用:臺灣在人工智慧研究和產業應用中緊密結合,尤以智慧製造、物聯網、機器人等領域成就突出。
(3) 政府支持:臺灣政府積極支持人工智慧研發,制定政策、提供資金,促進技術應用。
(4) 國際合作:臺灣積極參與國際人工智慧合作,與其他國家科學家合作、參與國際會議和研究項目。
(5) 法律和倫理規範:臺灣積極制定法規和政策,保護人工智慧的倫理和隱私安全。

4. 若臺灣要參考國際其他國家或區域的人工智慧監管規定,如何制定符合臺灣情況的規範,或設立專責的機構?

(1) 研究和評估:研究評估國際人工智慧監管規定,了解各國法律、政策和監管實踐,特別關注與臺灣相關的方面。
(2) 分析臺灣情況:評估臺灣人工智慧現況、挑戰和需求,並確定特殊監管需求。
(3) 制定適用規範:制定適用臺灣的人工智慧監管規範,包括隱私保護、倫理標準、透明度和責任等。
(4) 法律和政策制定:將人工智慧監管規範納入臺灣的法律體系和政府政策,通過立法或行政命令等程序進行具體化。
(5) 建立專責機構:成立專責機構監管人工智慧,包括合規、風險評估、指導原則、合作溝通和培訓等。有效規範人工智慧發展,促進國際合作。

制定適合臺灣的人工智慧監管規範是一個多方參與的複雜過程,需政府、學界、業界和公眾共同參與,平衡風險與發展。

利益聲明:無利益相關。

2023年06月30日
臺灣大學大語言學研究所副教授 謝舒凱

1. 我們的認知是人工智慧有不同的研究方向、學理、技術,以及產出的應用,您認為哪些性質的人工智慧需要優先監管?

AI 因其側重的應用不同,涉及的規範可能也不盡相同。比較應該優先考量的,可能像是有自主學習與決策能力的系統,以及會紀錄與偵測個人隱私、生理與社會生活資料的系統。目前最熱門的生成式 AI 內容(AIGC),涉及到數位社會最重要的資訊生成、傳播等議題,也是需要優先監管的部分之一。

2. 監管和規範人工智慧,代表無法再繼續發展特定的研究領域,或是研究方向受限嗎?

不盡然如此。較關鍵的可能不是規範的宣示與完備,而在於是否有一個專責的、透明的、有事實與系統成效研究與評測的機構(最好不是全官方組織),能夠在多方衡量的實證基礎下施行與運作。

我個人的經驗是,台灣公部門對於研究信賴這件事比較沒有整體規劃。這可能與法律文化有關。這樣的法規,一旦定調在監管,就是設法設置路障與門檻,以及防止各種可能風險的細節規範。比方說,我們可以有很嚴格的學術倫理法則,但是在實務運作上,卻容易造成研究人員的灰心與阻礙,很大的影響研究推展與投入動機。同樣的,對於 AI 監管議題,如果只是法規跟風,看似國際評比指標不錯,但有很大的機會讓台灣的AI相關研究無法產生極大的動能。

我想強調的是,AI 研究是影響全人類的重要科技,監管法規是用來保護人類尊嚴與價值,這是絕對優先重要的。但是全球競爭,且並不是所有問題皆可以透過科技和知識的進展來解決,監管法規某個角度應該同時是讓研究者照顧研究對象的安全,以及在研究成果透明(讓研究對象知道做什麼用途)之下,可以更放膽去開拓,激發更有創意的應用。從我的角度,監管這個詞彙貶低了這種新法律文類的前瞻性意義。

3. 臺灣的人工智慧研究或發展,和國際其他國家或區域有何不同之處?若臺灣要參考國際其他國家或區域的人工智慧監管規定,如何制定符合臺灣情況的規範,或設立專責的機構?

台灣有急迫的政治生存壓力,又處在國際政經角力下。我覺得需要另外思考,不能只是當成立法的問題,還涉及國防外交、國際政治與經濟等不同層面的規範。

語言,其實是最可怕的武器。摧毀與煽動人心可以不需要高端國防科技,這一點,在我們的社會似乎沒有高度的警覺。特別是前述的 AIGC 已經被極權國家當成武器研發,目前的 AI 發展趨勢之一是可以綜合理解文字、語音、影像、影片的能力,也是生成式 AI 目前的發展方向,虛假文字訊息也會跳脫文本為主的模式潛流在社會各地。我們需要有防堵與反制生成式AI的準備與能力。

制定相關監管法規,可能要跨部會(國防、外交、經濟)來思考。極權國家習慣用民主國家保障的價值來摧毀民主,我認為在此脈絡下,有些規範甚至涉及國家安全機密與價值攻防,有特別安置與保密的設計需要。

利益聲明:無利益相關。

2023年07月06日
臺灣大學資訊工程學系 / 資訊網路與多媒體研究所教授 林守德

1. 我們的認知是人工智慧有不同的研究方向、學理、技術,以及產出的應用,您認為哪些性質的人工智慧需要優先監管?

制訂AI使用規範從出發點而言是合理的,但是從定義面上來看這個草案仍嫌粗糙,還是有許多待釐清之處。筆者覺得應該是以AI的「應用」來定義所謂的危機程度(risk level)。然而,在這個規範中往往應用跟技術混用無法釐清。以「人臉辨識」為例,歐盟監管草案認為人臉辨識是不可接受的風險(unacceptable risk)需要被禁止。然而,筆者認為應該是看人臉辨識這個「技術」被拿來做什麼「應用」。如果是用在解鎖個人手機、公司出入管理,沒有什麼禁止的理由;但是如果是用來監控居民,的確是有可議之處。

2. 監管和規範人工智慧,代表無法再繼續發展特定的研究領域,或是研究方向受限嗎?

歐盟這個規範中限制了AI的使用,然而卻留下許多自相矛盾之處。例如利用AI從事執法(如測試證人的可信度)被認為是高度風險的,然而現在測謊器在許多國家其實都有使用;背後的機制利用生理訊號判斷一個人是否說謊其實也可以當成是一種機器學習的模型。

3. 臺灣的人工智慧研究或發展,和國際其他國家或區域有何不同之處?若臺灣要參考國際其他國家或區域的人工智慧監管規定,如何制定符合臺灣情況的規範,或設立專責的機構?

這樣的規範是否容易付諸實行?筆者認為光是要釐清什麼是AI系統、什麼不是可能,就要花很多心力。例如坊間常常聽到的「智慧型空調系統」其實可能只是對溫度濕度作一些動態的調整,這算不算是AI?這些空調系統如果因為歐盟的AI規範而被禁止,它是否只需要改個名稱就不算AI?它要如何「證明」自己是或不是AI?自駕車大家都覺得是AI,但是飛機的自動駕駛呢?飛機自動駕駛技術遠在AI這個詞彙被發明前就已經在使用了。所以如何定義怎麼樣的產品或是應用應該被這個法規所規範,又是一個很困難的問題。

4. 若臺灣要參考國際其他國家或區域的人工智慧監管規定,如何制定符合臺灣情況的規範,或設立專責的機構?

從新創的角度,這樣的法規有可能扼殺未來AI新創的動力,因為每次開發一項產品就有許多需要「自我證明」的項目需要認證。例如歐盟監管草案它要求大語言模型的建構需要「證明」所有的訓練資料都要符合規範。但是,訓練大語言模型的資料動輒數億甚至兆筆,一般的新創可能沒有資源去驗證這些資料是否合規。筆者的看法是,一個負責任的立法,除了能夠制訂合理規範外,應該也要投入資源去開發相關的數位技術來解決業者可能會遇到的問題。例如如果歐盟可以開發一個能夠驗證訓練資料是否合規的工具,相對也可以緩解對新創的衝擊。

版權聲明

本文歡迎媒體轉載使用,惟需附上資料來源,請註明台灣科技媒體中心。
若有採訪需求或其他合作事宜,請聯絡我們:

曾雨涵

haharain331@rsprc.ntu.edu.tw
02-3366-3366#55925