即時回應 智慧機械 2024-06-19「偵測大型語言模型中的AI幻覺」專家意見大家熟知的ChatGPT,即使已經能夠回答使用者的問題、可以生成書信,但仍然會編造錯誤、虛假的資訊,這種產生原本資料庫中沒有的資訊,就是AI幻覺。國際期刊《自然》6月19日晚間23:00發表一篇研究,提出一種偵測AI幻覺的方法。作者認為,儘管AI幻覺的症狀相似,但在不同的語言模型中,產生AI幻覺的機制不同,需要分別處理,而這篇研究可幫助使用者瞭解何時應該要謹慎注意,不要太依賴大型語言模型的回覆。閱讀更多
智慧機械 科學文章 2022-02-23AI偵測矛盾內容 讓維基百科更可被信任李政德副教授的團隊與維基百科合作,領先全球,開發出新的AI演算法,偵測並標出維基百科中自我矛盾的內容。除了幫助提高維基百科內容的可信任度,更有望提高其他資訊來源的可信度。閱讀更多
智慧機械 科學文章 2021-08-13醫療問題摘要的AI技術與潛力民眾在網路論壇或官方留言板上的醫療問題,可能包含與問題本身無關的內容,有礙於自動問答系統的開發。目前的研究發現,運用「人工智慧摘要生成技術」,有助於機器理解民眾問題內涵,裨益於智慧問答系統的發展。閱讀更多
智慧機械 科學文章 2021-03-03AI寫新聞的技術與風險2020年5月OpenAI公司發表了具有1750億個參數的人工智慧(AI)語言模型GPT-3,可讓電腦產生擬真的文章。其後,英國衛報在2020年9月8日發布一則〈機器人寫了這篇文章,你害怕了嗎,人類?〉新聞。衛報編輯人員先寫一小段文字給GPT-3當作前導文,讓GPT-3獨立的寫出後續500字的文章。衛報指出,比起記者寫的新聞稿,編輯GPT-3產生的文章,整體而言花費較少的時間。此例證顯示了此項技術,已可進入產業的成熟度。閱讀更多
即時回應 智慧機械 2020-10-26「AI寫新聞登上英國衛報」之專家意見衛報編輯人員要求AI撰寫約500字的文章,以說服人類,機器人訴求和平。而AI產出的文章內容,主要在說服人類不必害怕人工智慧、人工智慧沒有危害人類的企圖,以及希望人類視AI為一位友善的機器人等。但是,目前AI可以「完全獨立」寫出新聞嗎?這樣的技術有何特別?閱讀更多
即時回應 智慧機械 2020-10-05「AI可以解夢」之專家意見美國的貝爾實驗室(Nokia Bell Labs)研究團隊開發了一個新的AI演算法,可以自動把超過24,000 份夢境報告的敘述,拆解成段落、句子和單詞,並找出單詞之間的關聯和語法規則,分析夢境和現實生活的連結。但是,究竟AI為什麼可以分析夢境?真的如新聞所說,可以藉此「判斷」夢境「異常」與否,或幫助我們發現心理健康的問題嗎?閱讀更多