議題背景

英國的衛報(The Guardian)在2020年9月8日發布〈機器人寫了這篇文章,你害怕了嗎,人類?〉(A robot wrote this entire article. Are you scared yet, human?),這篇文章是用一個自動產生文字的AI技術:GPT-3(Generative Pre-trained Transformer 3)所撰寫。

這篇新聞是衛報編輯人員要求AI撰寫約500字的文章,以說服人類,機器人訴求和平。而AI產出的文章內容,有提到:人類不必害怕人工智慧、人工智慧沒有危害人類的企圖、不會毀滅人類,以及希望人類視AI為一位友善的機器人等觀點。衛報編輯人員提到,編輯AI寫的專欄文章與編輯人類寫的沒有什麼不同。編輯人員剪裁換行和段落,並在某些地方重新排列它們的順序。總體而言,編輯AI文章,比編輯人類寫的文章所需時間更少。

但是,目前AI可以「完全獨立」寫出新聞嗎?這樣的技術有何特別?我們邀請專家釋疑。

專家怎麼說?

2020年10月22日
中央研究院資訊科學研究所特聘研究員 許聞廉
中央研究院資訊科學研究所博士後研究員 謝育倫

GPT-3模型使用由網路收集而來的大量文字資料作「預訓練」,此資料內容包含維基百科、一般網頁及書籍等,語言以英文為主,其他語言相當稀少。預訓練的過程是要求模型在接受一段輸入的文字後,預測接下來的文字會是什麼。其他產生文字的方法可能是(1) 依據人工撰寫的既定模版,由AI填入相關文字,類似填空題或照樣造句;(2) 由人工擷取長篇文字中的片段再組合成新的句子。和這兩類方法相比,GPT-3的預訓練作法比較不需要人工的介入,而是由模型自動生成合理的文字和句子。另外,利用GPT-3來建構其他更進階的後續工作(如:分析文字中的情緒、做出摘要等)時,OpenAI的研究人員發現僅需提供非常少的訓練資料給預訓練後的模型,即可達到與之前AI與人工撰寫方法相同甚至更高的成效。[註1]但是GPT-3的弱點在於,因為沒有可避免產生錯誤內容的參數,研究人員無法直接控制模型輸出的文字,以及可能生成語意重複、前後矛盾,或與常理不符的文字及句子等。

以目前的技術,AI無法達到完全獨立寫出新聞的效果,但相比於之前AI與人工撰寫的方法,AI可以大幅度的降低人類撰寫草稿或者編輯的力氣。但即使是人類記者、編輯,仍需要基於事實資料或事件內容來撰寫新聞,不能毫無背景的憑空產生新聞。值得注意的是,人類有許多時候是基於表格式的重點資料,例如某個人物的基本資料、優劣對照表等等來撰寫新聞文章,這種類型的資料對於人類來說一目了然,可以很快的分析內容並寫出文章,但可能因為GPT-3目前未能理解及分析表格類型的資料,反而成效不是那麼好。另外,如同上一段所說,GPT-3仍會產生錯誤,以及重複或矛盾的文字,所以衛報的人員在新聞中也報告了,他們是挑選品質好的段落來稍作編輯並整合,只是GPT-3相比前人方法,產生出來的文章品質已有一定水準,人類所需要做的編輯較少。

若要求AI用中文而非英文寫文章,需要的技術上基本是一樣的,只是需要收集到夠多的資料,並初步整理內容以去除大多數非中文的資料。另外還需要非常大量的運算資源。但是,中文生成的效果是不是能跟英文一樣好,需要實證才能判斷。

AI快速產出文章對於媒體品質的影響,應不至於都是負面的,因為目前新聞媒體刊登也需要經過許多審查,並不是初稿就直接發佈出去。AI技術發展至今,可以基於幾句描述生成一個具規模的初稿,撰稿人就可以由這個已經不錯的骨架,把寶貴的時間花在做更進一步的分析、評論、甚至對於不同的閱聽眾做語氣和用字的調適,這只是少數AI可以幫助我們做的。總體而言,AI的進步應該可以協助減低媒體撰寫新聞的負擔。

相關利益聲明:無相關利益

2020年11月10日
國立臺灣師範大學圖書資訊學研究所優聘教授兼副所長 曾元顯

這篇衛報新聞是由GPT-3技術撰寫的。GPT-3的模型架構[2]比其他AI技術更大,訓練資料更多,因此產生的語言模型更準確、涵蓋的主題更廣,很多時候文字一產生即可供人類直接使用,但有時仍需要人工潤飾文章。

衛報的編輯人員先寫一小段文字,輸入給GPT-3當作前導文(prompt),然後要求GPT-3撰寫後續的內容。在給定前導文的情況下,GPT-3即可完全獨立的寫出後續的文字,不需要人類預擬草稿。前導文可以簡短到只需一句話做為文章的開頭,也可以如同衛報的例子,先描述需要GPT-3產生文字內容的要求,再接上文章的起始文句。

在三種條件下,AI產的文章,需要人工編輯的機會就越來越低:(1)有足夠大量且品質優良的語料來事先訓練AI、(2)前導文寫得好、(3)前導文的主題在訓練語料庫裡面夠豐富。符合上述三個條件下,AI生成的經濟新聞,一般人已難以看出是電腦所寫,更難以判定內容的真假。[3]

在英文方面GPT-3可產生非常擬真的文章,在中文方面目前已有GPT-2 Chinese公開程式碼[4]可用。只要有大量且品質優良的中文語言資料,不必寫程式,有基礎軟體安裝與操作技術的高中生也可用電腦自動生成文章。我們研究團隊已經做出自動生成的中文經濟新聞了,請見〈電腦生成的新聞有多真?─文字自動生成技術運用於經濟新聞的評估〉。[5]

AI生成的文章,再稍加人工潤飾,可能跟人類撰寫的一樣好,但目前還不會優於專業作家。惟若被誤用,以AI生成文章,不管內容對錯就直接大量發送,將造成資訊混亂。特別是高風險的內容,如經濟、股市方面的新聞,其造成的危害,難以預料。

不經人工修正的電腦生成文章,有另外的AI方法可以偵測,準確率最高可達96%[6]。然而AI生成的文章若經人工簡單的修正,將更難辨識文章作者是人類還是AI,如同衛報報導的文章一樣,令人害怕。若再配合人類下了吸睛的新聞標題,只為點閱率,無法辨別真偽的文章將更氾濫,可能讓大眾對媒體的觀感不佳、信任度降低。

相關利益聲明:無相關利益

註釋與參考資料:

[1] Brown, T. B., Mann, B., Ryder, N., et al. (2020). “Language models are few-shot learners.arXiv preprint arXiv: 2005.14165.

[2] 編註:模型架構的大小指的是神經網路的層數與參數量,例如,GPT-2使用的神經網路有12層,共1.17億個可學習調整的權重參數,GPT-3則有96層,共1750億個參數。理論上配合正確的實驗設計,架構越大,能容納的資料越多、模型越準確。

[3] 曾元顯、林郁綺(2020)。〈電腦生成的新聞有多真?─文字自動生成技術運用於經濟新聞的評估〉,《圖書資訊學刊》出刊中。

[4] 編註:GPT-2中文語言的公開程式碼請參考〈Morizeyao/GPT2-Chinese〉。

[5] 同註3。

[6] 同註3。

版權聲明

本文歡迎媒體轉載使用,惟需附上資料來源,請註明新興科技媒體中心。
若有採訪需求或其他合作事宜,請聯絡媒體公關:

曾雨涵

haharain331@rsprc.ntu.edu.tw
02-3366-3366#55925