無人駕駛首例致死車禍:AI還能被信任嗎?通信
這是史上首例自動駕駛車輛在公開路面撞傷行人致死的事故,從當時車內(nèi)監(jiān)控到的錄像可以看到,司機在事故發(fā)生前正低頭,可能是在查看手機,并沒有保持對前方路面的專注,當他意識到事故發(fā)生時,已來不及采取措施,最終釀成悲劇。
就在Waymo的交通事故發(fā)生幾天后,Uber3月18日發(fā)生的一起完全自動駕駛汽車致死事故也查明了真相――Uber的無人車傳感器已經(jīng)探測到這位正在橫穿馬路的行人,但自動駕駛軟件沒有在當下采取避讓措施。
這是史上首例自動駕駛車輛在公開路面撞傷行人致死的事故,從當時車內(nèi)監(jiān)控到的錄像可以看到,司機在事故發(fā)生前正低頭,可能是在查看手機,并沒有保持對前方路面的專注,當他意識到事故發(fā)生時,已來不及采取措施,最終釀成悲劇。
事故的發(fā)生使得一向?qū)ψ詣玉{駛技術(shù)持謹慎觀望態(tài)度的民眾更加焦慮,不是說機器比人類更善于準確測量、不知疲倦,更能規(guī)避風險的嗎?機器和人類共享方向盤為什么沒有達到想要的結(jié)果?AI技術(shù)是否足夠安全,自動駕駛究竟還能被信任嗎?
為什么探測到行人,軟件卻沒有采取避讓?
車道上出現(xiàn)或物或人的障礙,是無人駕駛汽車最常需要應(yīng)對的緊急事件之一。但令人不解的是,這次事故中,Uber在時速30多公里的情況下都沒有及時響應(yīng),難免不讓人質(zhì)疑其技術(shù)能力。
Uber無人車檢測到了行人,但選擇不避讓
首先,車頂?shù)募す饫走_即使在夜間也能辨認幾米到幾十米范圍內(nèi)出現(xiàn)的障礙物,并將信息傳遞給“大腦”整理圖像;其次,毫米波雷達也沒有做出單方面決策緊急剎車,甚至直到撞倒行人都沒有決策。
早在事故發(fā)生時,路透社就有報道稱,Uber基于沃爾沃XC90車型改裝的自動駕駛測試車大幅消減了用于測試車配備的激光數(shù)量,車輛前、后兩側(cè)的激光雷達從5個減少到只剩車頂?shù)?個,取而代之的,是Uber將這類測試車型的360°雷達傳感器從原來的7個增加到10個。同時,還將攝像頭數(shù)量從20個減少到了7個。
這個調(diào)整導(dǎo)致的結(jié)果是,車的利潤提高了,但同時安全性也被降低,使得車輛容易出現(xiàn)掃描盲區(qū),無法完全檢測到行人。
激光雷達最為人詬病的地方就在于昂貴的造價,但它比攝像頭更靠譜的地方是,其反饋給計算機的數(shù)據(jù)能夠很快被讀取,攝像機則有可能被鏡頭中出現(xiàn)的障礙物,例如石頭、路標所愚弄,甚至光線也會影響其判斷。
自動駕駛領(lǐng)域,Uber是晚到者,但也是激進的追趕者。它跳躍式的追趕步伐業(yè)界有目共睹。
2015年,Uber從卡耐基梅隆大學機器人研究所挖走了50多名工程師,并收購了地圖行業(yè)創(chuàng)業(yè)公司deCarta;之后,又以30億美元的高價再次收購諾基亞的地圖產(chǎn)品Here;緊接著,重金買下微軟旗下的必應(yīng)地圖。2016年,Uber花費6.8億美元收購無人駕駛創(chuàng)業(yè)公司Otto。
很快,2016年5月,Uber官方就公開了無人駕駛汽車的測試照片。同年9月,經(jīng)過18個月的測試,Uber在匹茲堡投放了第一批自動駕駛車輛試運營,盡管每輛車上都有兩名員工跟隨,但這一做法還是引發(fā)了爭議。
2016年12月,Uber自動駕駛出租車在舊金山試運營,因加速闖紅燈被加州車管所登記。隨后,Uber將車輛和整個測試計劃轉(zhuǎn)移到政策更寬松的亞利桑那州。
要知道,即使在對自動駕駛測試申請最開放的加州,也要求經(jīng)過測試,繳納保險金后才能獲得牌照,但在亞利桑那,無需特殊許可,只要進行標準車輛登記,無人車就可以上路了。
2017年2月22日,Uber開始正式在亞利桑那州坦佩市使用沃爾沃XC90 SUV運營無人駕駛專車服務(wù)。
五年來,Uber不斷燒錢擴張,但結(jié)果卻事與愿違,不僅海外市場屢次碰壁,美國國內(nèi)的市場份額也不斷下滑。為了擺脫高昂的人力成本,Uber的無人駕駛從一開始就朝著速度狂奔而去,忽視了安全問題。結(jié)果,在亞利桑那州上路不到一年,Uber自動駕駛就因各種交通事故被接二連三曝光。
根據(jù)數(shù)據(jù)顯示,Uber的無人駕駛車輛在測試的過程中,每行駛1英里(1.6千米)就需要駕駛員接管一次,而Waymo平均5128英里(約8253千米)才需接管一次。雖然測試地點和方法有所區(qū)別,但相比Waymo的謹慎穩(wěn)健,Uber對于整套技術(shù)流程不夠嚴密把控的態(tài)度似乎更令人心寒。
如果人類駕駛員是軟件失靈后的第二重保障,為什么依然失效了?
理論上,將具有決策能力、經(jīng)驗豐富的司機和一臺擅長偵測規(guī)律、精準測量的智能機器放在一起,是最佳組合。這也是當前許多自動駕駛團隊所采用的循序漸進的發(fā)展路徑之一:自動駕駛軟件負責臨時接管,一旦遇到突發(fā)狀況,系統(tǒng)將立即提醒駕駛員回到座位做緊急處理。
但無論是試驗探索還是路面實操,人類干預(yù)似乎都沒有達到預(yù)期的效果。
不同于循序漸進的階段推進,谷歌的Waymo在自動駕駛技術(shù)方案上堅持一步到位,倡導(dǎo)“直接跨越”,他們甚至將人類對自動駕駛軟件的過度依賴視為“愚蠢的行為”。
谷歌不是空說無憑。早在其2015年10月公開的一份月度報告中,就能看到谷歌員工在被授權(quán)經(jīng)過高速路段可以啟動自動駕駛功能后的行為。
由于當時的系統(tǒng)還處于早期研發(fā)階段,谷歌還特意提醒員工,要時刻保持對車子和路況的關(guān)注。但從回放的錄像來看,“大部分人的注意力都從方向盤上移開了,他們做著簡單放松活動,享受這片刻的自由。有的人甚至完全離開了駕駛員座椅,爬去后排座椅上找手機充電器”。
同樣的情況還發(fā)生在特斯拉身上。2016年5月,一名美國佛羅里達州的Model S車主在使用特斯拉“Autopilot”模式時發(fā)生事故,導(dǎo)致汽車撞向卡車,車主不幸身亡。
當時,特斯拉就對此次事故發(fā)表意見:Autopilot功能與飛機的自動巡航類似,可以在條件合適的情況下使用。但是,“司機仍然要對汽車負責,也是汽車的最終控制者”。
2017年10月31日,谷歌旗下無人駕駛汽車部門Waymo CEO John Krafcik對外宣布,公司將放棄開發(fā)輔助駕駛技術(shù),“我們發(fā)現(xiàn)這樣做后果很嚴重。因為駕駛員會喪失情境感知能力,很難接管汽車”。
這也是谷歌為什么堅持避開自動化路線的原因,它有可能導(dǎo)致駕駛員的注意力從道路上轉(zhuǎn)移,當他的注意力完全游離時,就無法再對駕駛中的關(guān)鍵信息做出迅速反應(yīng)了。
因而,在Waymo Chrysler Pacifica汽車內(nèi),乘客只有兩種選擇:按下按鈕,開始旅程;按下按鈕,讓汽車靠邊停車。
十年磨一劍,谷歌謹慎的態(tài)度和常年研發(fā)投入,的確為自己換來了無人駕駛技術(shù)領(lǐng)跑者的地位以及還不錯的安全成績。
從2009年啟動無人駕駛計劃到今天,Waymo已經(jīng)卷入30起小型撞車事故,但只有一起事故的肇事方是Waymo。此外,上周在美國亞利桑那州錢德勒市發(fā)生的一起交通事故經(jīng)查明,Waymo也非事故肇事方。
技術(shù)往往會讓人陷入惰性。根據(jù)通用汽車和美國聯(lián)邦公路管理局對12名測試者展開的一項研究顯示,在近3個小時的技術(shù)輔助駕駛測試中,人們會不自覺地打電話、發(fā)郵件甚至到后座拿東西,33%的注意力都不在道路上。而在實際路況中,任何一丁點的疏忽,都可能在極端情況下釀成苦果。
但直到今天,究竟人與軟件共享方向盤的漸進式路線更靠譜,還是無人駕駛自動化一步到位更安全,都沒有勝負定論。我們唯一能夠確定的是,人類始終無法在交通技術(shù)的革新中規(guī)避風險,只能盡可能降低危險系數(shù)。
危險時保護車主,還是保護行人?
無人駕駛汽車上路或許引發(fā)的將不只是法律適用的問題,當我們把判斷權(quán)轉(zhuǎn)移給計算機系統(tǒng),就會牽涉到不少道德和倫理困境。
美國《Science》雜志此前做過一個無人駕駛汽車道德困境的社會調(diào)查,結(jié)果顯示,受訪者認為,無人駕駛汽車車主應(yīng)該選擇最小化對他人的傷害,即使會致使自己受傷。但當問及會選擇購買“車主保護優(yōu)先”還是“行人保護優(yōu)先”的無人駕駛汽車,受訪者更傾向于購買“車主保護優(yōu)先”的。
這是早已存在的由哲學家菲利帕?福特(Philippa Foot)提出的“電車悖論”。一輛失控的電車可以通過拉拉桿做出一個選擇,要么沖向5個人的軌道,要么沖向1個人的軌道。這種情況下,該如何選擇?
《玻璃籠子》的作者尼古拉斯?卡爾(Nicholas Carr)就曾在書中質(zhì)疑,“當無人駕駛發(fā)生事故并造成人員傷亡時,應(yīng)該怎樣定罪及誰來承擔責任?由車主承擔,由安裝自駕系統(tǒng)的汽車制造商承擔,還是由編寫軟件的程序員承擔?只有解決了這些棘手的問題,全自動汽車才能進入經(jīng)銷商的展廳”。
2017年8月底,德國交通運輸與數(shù)字基礎(chǔ)建設(shè)部下屬的道德委員會公布了一套被稱為世界上首部的自動駕駛道德準則――或許可以作為這個問題的參考。
這套由科學家和法律專家共同提出的15條自駕系統(tǒng)的駕駛決策道德準則的核心原則是:生命應(yīng)該始終優(yōu)先于財產(chǎn)或動物。其中明確,人類生命一定是首要任務(wù),在事故無可避免的情況下,人的生命要比其他動物、建物都還重要。
也就是說,引導(dǎo)汽車的智能軟件在必要時會對人類和動物的生命價值進行量化比較,以便于無人駕駛汽車在應(yīng)對將要發(fā)生的事故時做出恰當?shù)姆磻?yīng)。
但是,規(guī)范中也提到,自駕系統(tǒng)不得以任何年齡、性別、種族、是否殘疾等條件,作為“犧牲”和“獲救”的判斷選擇標準――因為人類的生命都是平等的。但也正因為“平等”,自動駕駛系統(tǒng)的選擇難度似乎就更大了。
對此,谷歌自動駕駛負責人在2015年時就表示,危機情況下,谷歌無法決定誰是更好的人,但會努力保護最脆弱的人。
美國初創(chuàng)無人駕駛公司NuTonomy的首席執(zhí)行官卡爾?艾格尼瑪(Karl Iagnemma)的觀點很實際,“無人駕駛汽車的掃描手段無法區(qū)分路人的年齡或汽車中的乘客數(shù)目。所以即使人們想給無人駕駛汽車增添道德模塊,目前的技術(shù)能力也還達不到”。
目前,工程師只能給汽車編程使其能夠做出簡易的道德行為,比如在檢測到前方有自行車之后會減速行駛。
對不同人的生命做出排序是一個無法避免的問題。不同于我們所談?wù)摰摹半娷囥U摗毙枰嗽诰o急情況下有所作為,無人駕駛的行為一開始就被工程師設(shè)置的指令所決定了,比如安全氣囊,這種技術(shù)的本質(zhì)就是,以少數(shù)人的生命來人換取多數(shù)人的存活。
當然,為了獲得整個社會和法律的認可,無人駕駛汽車還需要一套透明的可靠性保準,通過制造企業(yè)和政府合作,共同制定一個定義明確的公共標準――無人駕駛汽車的平均故障間隔距離應(yīng)該達到多少才是可接受的。
根據(jù)弗吉尼亞理工大學交通研究所的數(shù)據(jù),人類駕駛車輛每行駛百萬英里會發(fā)生4.2次事故。按照這個來計算,行駛超過500萬英里約發(fā)生21次撞車事故,與Waymo的無人駕駛汽車記錄相當。
根據(jù)胡迪?利普森(Hod Lipson)在《無人駕駛》中的表述,一輛無人駕駛汽車如果無事故行駛的里程數(shù)兩倍于人類的水平,則可以宣稱“人類安全系數(shù)2.0”。一輛無人駕駛汽車的安全程度如果3.5倍于人類駕駛汽車,則可成為“人類安全系數(shù)3.5”;以此類推。
作者解釋道,在所有運輸系統(tǒng)中,具有最高級別平均故障間隔時間的運輸系統(tǒng)之一就是民航飛機。平均而言,每200萬次的飛行才會出現(xiàn)一次致命的系統(tǒng)故障(不考慮飛行員失誤、惡意破壞、恐怖主義和其他外部因素,事實上80%以上的飛行事故是由哪些因素導(dǎo)致的)。
為此,利普森認為,為了提高安全性,無人駕駛汽車可以從民航飛機當中借鑒的經(jīng)驗是:
1. 有一套合理而透明的機制來權(quán)衡并量化機器人駕駛的能力;
2. 操作系統(tǒng)設(shè)計的優(yōu)化;
3. 建立故障防護系統(tǒng),即出現(xiàn)緊急情況下系統(tǒng)之間可以互相檢測故障,如果多個子系統(tǒng)“產(chǎn)生分歧”,會通過投票的方式來解決僵局。
不過與人類駕駛的汽車相比,自動駕駛汽車給行人、自行車騎手或者其它汽車帶來的風險并不見得更大。美國交通部就表示,94%的致命事故都是人為失誤造成的,但公眾一直告訴民調(diào)機構(gòu),他們對無人駕駛汽車心存警惕。在接受調(diào)查的美國人中,有56%的人表示,他們甚至不愿意乘坐無人駕駛汽車。
然而事實卻是,沒有任何一種交通工具具備完美的可靠性。自動駕駛汽車技術(shù)的優(yōu)勢之一就在于,它能以冪次方的效率快速學習過去的行駛數(shù)據(jù)庫,其解決復(fù)雜的狀況能力也會在過程中不斷提升。
事故發(fā)生后,Uber發(fā)表聲明稱,“已經(jīng)開始對我們的無人駕駛車輛計劃進行全面的安全審查,我們聘請了前NTSB主席克里斯多弗?哈特(Christopher Hart)為我們提供打造全面安全文化的建議,我們的審查從系統(tǒng)安全到車輛操作員的培訓過程”。
此后一周,英偉達也停止其在全球的無人駕駛汽車路測工作。并表示,“這起事故是一場悲劇。它提醒人們,開發(fā)無人駕駛汽車技術(shù)是多么困難,需要極端謹慎和最好的安全技術(shù)。這場悲劇是我們致力于完善這一拯救生命的技術(shù)的原因”。
而作為普通民眾,我們不希望等到事故之后,才開始全方位的安全審查。
1.TMT觀察網(wǎng)遵循行業(yè)規(guī)范,任何轉(zhuǎn)載的稿件都會明確標注作者和來源;
2.TMT觀察網(wǎng)的原創(chuàng)文章,請轉(zhuǎn)載時務(wù)必注明文章作者和"來源:TMT觀察網(wǎng)",不尊重原創(chuàng)的行為TMT觀察網(wǎng)或?qū)⒆肪控熑危?br>
3.作者投稿可能會經(jīng)TMT觀察網(wǎng)編輯修改或補充。