引言:
上一篇我們談到了自駕車的決策過程、車輛業界對車輛測試的分類,以及從開發到車輛上市銷售的過程,接下來讓我們談談自駕車上路的責任歸屬、駕駛倫理的判斷及道德抉擇,以及如何與消費者溝通的層面。

與會專家意見

臺灣科技大學科技管理研究所教授 朱曉萍

自駕車議題已在國外引起熱議,而臺灣的技術發展卻稍顯落後。日前沙崙所建的自駕車試車場,也並非為了創造超前的技術,而是因為臺灣的交通環境與駕駛習慣跟歐美相差甚遠,測試情境的難度也不一致的背景而成立,畢竟美國車或許不符合臺灣的道路情況,但還是期待未來會有更平順的煞車方式。且目前臺灣只到第二級(即部分自動駕駛),到完全由電腦自動決定尚需要一段時間。

從課責問題,也就是發生事故時的責任歸屬來看,駕駛人來控制車輛時,無疑應歸責於駕駛人;但如果不是由駕駛人所控制,責任是否就在車廠呢?朱老師認為,如果是由駕駛人來做「哪個特定時點該讓自己/機器決策」的決定,車廠便有義務教導駕駛人何時該介入決策,且應告知其屆時會有多少時間下判斷。另一方面,當自駕車是出於自身安全而選擇剎車,卻造成後面車輛(可能是自駕車或一般車)的追撞時,課責問題就被凸顯出來了,我們必須釐清當時是誰在做決定?怎麼做決定?以及駕駛人事前有無被清楚告知。

發展自動駕駛的目的之一是希望提高道路安全,降低肇事發生率,確實目前也是如此,但有趣的是,一般民眾其實比較能接受同為人類的對象犯錯,卻假設機器的穩定度較高、應該可以掌握全局,較不能接受「機器開車發生意外」。尤其發生事故後要追究責任,我們不免有許多「應注意而未注意」的事實需要認定,這部分在以人為主體的討論已行之有年,但在將來,以機器為主體時該如何界定,以及「誰」來決定此錯誤是否要被列為機器疏失等,都值得繼續討論。

朱老師初步的理解是,推行自駕車前應該先讓民眾理解其侷限,也就是自駕車相對安全,但還是可能發生問題。如果民眾習慣性認為自駕系統能幫自己負擔部分責任而鬆懈時,就不會一如往日地專注於道路安全。因此當新興科技正在發展,為了讓大眾了解法規的用途,應先向民眾建立正確的倫理態度,再以法規約束,才是較佳的做法。

 

中正大學哲學系教授 陳瑞麟

從倫理與科學哲學角度看待自駕車議題,陳老師指出,方法論可提供一些情境或條件,來協助演算法設計與測試,也可協助討論科技產品引進社會時,可能產生的結果、傷害,或形成之風險倫理。

以倫理學來說,這些倫理判斷規則(如電車困境,Trolley problem)背後是在質疑「效益理論」,也就是挑戰最正確的行為是將效益達到最大的主張 [1]。陳老師認為,我們要討論的不該是「倫理判斷的規則是否該納入AI演算法」,也不應讓機器用「人」的邏輯來思考,因為人犯錯的機會遠勝於機器,所以「讓機器像人」並不會使機器變得更好。把人類期待的規則全部納入演算法,讓機器衡量完再行決策,反而會出現像一般人反應不及的狀況,而製造出更多問題。所以自駕車只要做到「一遇到障礙物就讓機器自動剎車」,不用讓它判斷到底要撞牆還是人、1個人還是5個人、要如何移動,甚至不用辨認那是什麼東西。科幻電影的盛行,讓大眾開始想像「機器會變得太像人」進而害怕AI,科技溝通中也難以說服眾人「機器比人還要安全」。有鑒於此,將AI擬人化實乃不利於科技溝通,也不該把人的思考帶進技術問題中。

自駕車引入臺灣時,必須思考社會的交通系統能否便於自駕車的運作,讓研究發展、設計演算法或測試時的肇事率近乎於零。但就像事故機率很低的航空系統依舊無法做到零風險,就會考慮到究責。陳老師認為,此時應單純的由擁有者負責,並引入商業保險系統(如同汽車第三責任險的方式)以提升民眾信心。當自駕車發展到第五級(即完全自動化),道路系統不會出現人,一般人想體驗開車樂趣就只能去專用車場,這樣的狀況相對安全;但目前這段真人與機器開車並行的混雜過渡期是最艱困的,不僅要請測試端解決車陣中,兩台一般車中插入一台自駕車的情境;又,法律該如何設計特殊情況的保險、賠償等問題,也有待社會找到解方。

 

益思科技法律事務所所長 賴文智

談到AI的倫理議題,並非要測試機器遇到人類的道德抉擇時,機器會作何反應;而是要討論設計者開發AI時應該(或不應該)做哪些事。舉例來說,當機器遇到了電車困境,我們不該是討論AI在鐵道上要不要拉動手拉桿;而是設計者在一開始,一定要納入(或不該納入)哪些社會要求遵循的規則到演算法中。

以自駕車為例,目前較大的科技溝通問題出現在幾個方面:

1. 車商不能仰賴與消費者間的資訊落差,而誇大產品內容

詳言之,第一、二級的自駕車仍在輔助駕駛階段,而非消費者想像中的「全自動駕駛」,當自駕車發生事故,Tesla公司澄清已寫明自駕車屬於第二級(即弱駕駛輔助)的說法,卻經常與銷售員努力展示自動跟車的行銷話術不同調,因為賣車時很少強調:即使有自動跟車系統,駕駛人依舊要注意路況並手握方向盤。

2. 即使廠商將使用資訊說明得很精確,也無誇大不實,消費者還是可能「誤用」

當消費者沒有理解新工具的正確用法,甚至還未培養出使用習慣時,新科技便不易發揮功能,甚至比以前更危險。今日的輔助駕駛功能與配備非常多樣,消費者容易被廣告吸引,卻在上路時發現自身習慣與新功能並不相符,甚至傾向棄而不用,而這已是消費者了解自我侷限的較佳情況。出廠的自駕車系統必須做好駕駛教育,當它偵測到無人操作方向盤,也就是當消費者誤用該系統,不該允許車廠設計的自駕車依舊回到預設目的地。相反地,它必須「主動」於安全之處就近停車,並打警示燈號提醒附近車輛,甚至叫醒駕駛人。賴所長認為,法規既要規範自駕水準,更要明示當自駕車偵測到駕駛誤用時,系統的配套措施是什麼。

直言之,法規不該有意容忍自駕車廠,暗示消費者當他「買了自駕車後,即使在駕駛座睡著還是能安全回家」,必須優先改善這類的廣告手法。其次,假使分類自駕車的法規已載明,只能在高速公路開啟特定功能,自駕車的設計便只能在此條件之下執行這項特定功能,且系統必須能偵測到異常、給予指示或提醒,一旦系統故意容忍此事,就必須擔負責任,而非車廠聲明「因已告知使用人相關規範」便可卸責。

自駕車確實會有科技風險,因此或許社會更該思考的是,立法時應以更高的標準來檢視自駕車嗎?另一方面,廠商也該盡力避免消費者的誤用。舉例來說,多數消費者不會貿然購買超級跑車,除了價格,也是因為知道習慣普通轎車性能的駕駛人,不一定能掌握超級跑車;超跑車商會要求買主須提交超跑訓練之證明始得購入,未來買自駕車也應比照如此,而不是下單、交車後就可以直接上路。因此,社會的當務之急應是強化上述的前置行政法規,再來才是事後的責任釐清機制,才能真正降低自駕車的風險。

備註:

[1] 電車困境是一個倫理學上的思想實驗:當妳/你看到一輛行進中的電車朝5個躺在鐵軌上的人前進,而在妳/你身旁的是一個控制拉桿。如果拉動拉桿,電車將會切換進另外一道鐵軌,拯救那5個人。但另外一條鐵軌上躺著1個人,拉動拉桿切換軌道的同時則會殺掉那個人。此時,哪一個抉擇合乎倫理?請參考自動駕駛汽車的道德抉擇

版權聲明

本文歡迎媒體轉載使用,惟需附上資料來源,請註明新興科技媒體中心。
若有採訪需求或其他合作事宜,請聯絡媒體公關:

曾雨涵

haharain331@rsprc.ntu.edu.tw
02-3366-3366#55925