「偵測大型語言模型中的AI幻覺」專家意見

大家熟知的ChatGPT,即使已經能夠回答使用者的問題、可以生成書信,但仍然會編造錯誤、虛假的資訊,這種產生原本資料庫中沒有的資訊,就是AI幻覺。國際期刊《自然》6月19日晚間23:00發表一篇研究,提出一種偵測AI幻覺的方法。作者認為,儘管AI幻覺的症狀相似,但在不同的語言模型中,產生AI幻覺的機制不同,需要分別處理,而這篇研究可幫助使用者瞭解何時應該要謹慎注意,不要太依賴大型語言模型的回覆。
閱讀更多

「新演算法加速微型衛星影像傳輸」專家意見

「衛星遙測」領域的指標性期刊《IEEE Transactions on Geoscience and Remote Sensing》刊登一篇由成功大學統計學系教授許志仲團隊發表的最新研究。研究開創新的演算法,稱為RTCS系統,能同時解決原本衛星影像上可能出現瑕疵、影像傳輸過程受到雜訊干擾的問題,又能還原被壓縮的影像,未來將有助微型的衛星影像相關的應用,例如協助救災。
閱讀更多

講座活動【生成式AI輔助寫判決書,智慧司法的時代即將來臨?】

司法院於今年8月發布一項消息:為了減輕法官的工作負擔並提高審判效率,司法院從111年4月開始發展生成式人工智慧(AI),希望以此工具撰寫「不能安全駕駛」、「幫助詐欺」等兩類犯罪的裁判草稿,以供法官製作裁判時參考。這項進展意味著什麼?我們的司法系統將如何變化呢?快來講座瞭解AI在在司法領域的潛力,並與專家進行面對面的交流!
閱讀更多

「研究發現對話機器人即使預先警告仍無法避免人記住錯誤的資訊」專家意見

台灣大學心理系黃從仁副教授研究團隊11月20日在《美國心理學家》期刊發表最新的聊天機器人研究,使用人工可編輯程式的人形機器人RoBoHoN與台灣大學生對話,研究發現,即使相對頻繁、針對特定項目的預先警告參與者,也無法阻止特定項目錯誤資訊被參與者記憶。台灣科技媒體中心邀請到專家解析,專家表示,研究結果提醒了我們可以對社群媒體保持一份懷疑,或許就可以增加一些對假消息的免疫力。專家說,最起碼在聽到某個新聞或消息時,不要立刻接受,而是在選擇相信之前多看看其它人對同一消息的評論和看法。
閱讀更多

LK99超導體只是場美麗的誤會,為何實現室溫常壓超導體如此困難?

上個月全世界燒起一波超導體熱潮,起因是南韓團隊7月底宣稱成功找出室溫和常壓下的超導體,並發表在未經同儕審核的預印本平台。但多國不同的實驗室,包含中國、德國、美國、台灣,依照南韓研究寫的條件重複實驗後,結論是南韓團隊發現的「LK99」材料,性質其實比較接近抗磁性弱的半導體或不良導體,不是超導體。
閱讀更多

「人工智慧法」專家意見

臺灣預計9月提出「人工智慧基本法」草案,目前行政院初步可能納管廣播電視、有線廣播、衛星廣播等媒體及頻道業者使用生成式AI如ChatGPT來產生內容。全球也已有一些近期監管AI的重大方向與作為可參考。由於監管與規範人工智慧將影響學術研究,台灣科技媒體中心邀請臺灣研究人工智慧的專家依據自身研究經驗發表看法,藉此次機會讓更多人看見研究人工智慧的科學家們的專業意見,有助於促進基於科學觀點的公眾討論,也讓相關制定規範或法案的單位有更多機會採納多元的意見。
閱讀更多

「泰坦號觀光潛水器(Titanic submersible)事故」專家意見

由「海洋之門探險」(OceanGate Expeditions)公司製造的潛水器,搭載5人至約4000公尺水下的鐵達尼號沈船遺址,美國的海岸警衛隊於6月22日週四晚上在鐵達尼號沈船遺址附近發現了泰坦號的五塊碎片,究竟泰坦號潛水器事故的原因為何?台灣也有研發潛水器,我們可以從此悲劇中學到什麼?
閱讀更多