根據警方公佈的資訊,Waymo的這次事故發生在十字路口附近,一輛本田轎車在 Chandler Boulevard 路向東行駛,為了躲避撞上另一輛往北開的汽車駛入西行車道,本田車突然衝向西行車道,撞向Waymo自動駕駛汽車。當時Waymo自動駕駛汽車正在以低速自動駕駛模式行駛。雖然Waymo曾表示將在亞利桑那州測試沒有安全員的車輛,但這輛車配備了安全員,因此安全員受輕傷。
從現場照片來看,Waymo汽車是一輛典型的由克萊斯勒Pacifica七座車改裝來的自動駕駛汽車,汽車左前方遭到撞擊,但總體狀況還比較好。而本田轎車的情況要嚴重得多,汽車頭被擠壓到嚴重變形,玻璃被撞破。Google在研發自動駕駛汽車過程中已經不是第一次遇到交通事故了,分別在20157 月 1日、2016年2月14日以及2016年9月23日,Google的自動駕駛測試車輛都在其總部附近遭遇到了各種各樣的碰撞事故,造成了程度不一的人員受傷狀況。
雖說產品開發過程中有挫折在所難免,但對於這家標榜著「最有希望實現完全無人駕駛」的公司來講,每一次的麻煩都像潑來的一盆涼水,迫使其不得不更加的謹小慎微、認真審視自己要走的每一步路。
事故不斷的自動駕駛
Waymo汽車事故是幾個月來最新的一起自動駕駛汽車車禍。當時間3月18日晚十點左右,一輛Uber自動駕駛汽車在亞利桑那州撞死過馬路的行人,這輛車當時正處於自動控制模式。而這也是全球範圍內首起自動駕駛汽車「致路人死亡」的事故。當時,這一事件給整個自動駕駛行業都蒙上了一層陰影。
細數自動駕駛概念大火之後,由於各種測試活動所引發的交通事故,我們不難發現,絕大多數的事故原因都指向了測試車輛本身,尤其是對自動駕駛技術的本能質疑。以大紅大紫的特斯拉為例,這家公司以打造性能卓越的電動車而聞名,即便考慮到成本等等諸多因素,特斯拉沒有模仿其他自動駕駛公司走上雷射雷達的技術路線,但自動駕駛依舊是其不斷秀出手的一張王牌。
不過,時至今日,特斯拉由於自動駕駛引發的交通事故可謂接連不斷、慘不忍睹。例如,在2016年5月7日下午3點,一位名叫Joshua Brown的車主駕駛一輛2015款特斯拉Model S在佛羅里達州高速公路上與一輛掛式卡車發生相撞,導致司機不幸身亡。而事故的起因正是由於當時日照強烈,特斯拉的自動駕駛系統失靈,未能發現白色的卡車。
而Model 3也同樣沒能經受得住考驗,2018年1月12日,一輛特斯拉Model 3在轉彎時司機對汽車失去了控制,車子竟然一躍而起墜入了路邊的河流之中,畫面可謂十分尷尬。不僅僅是在美國,到了中國,特斯拉也變成了「闖禍王」,在 2016 年 1 月 20 日,京港澳高速河北邯鄲段就發生一起追尾事故,一輛特斯拉轎車直接撞上一輛正在作業的道路清掃車,車毀人亡。令人訝異的是,這輛特斯拉汽車在當時也還是開啟著自動駕駛功能的。
除了特斯拉之外,其它參與到自動駕駛的公司的日子也不好過,今年1月10日,福特投資的Argo AI公司在美國賓夕法尼亞州匹茨堡就發生了一起交通事故,導致2人受傷;2017年12 月7日,一輛開啟了自動駕駛模式的 Cruise 自動駕駛汽車在變道過程中與一輛摩托車發生了剮蹭,造成了摩托車司機受傷;甚至就連無人巴士也難逃事故,2017年11月8日,法國公司 Navya 製造的一輛無人巴士在美國拉斯維加斯上路的第一天就與一輛卡車發生了碰撞。
技術是否有原罪?
近期以來的不少自動駕駛事故引發了很多討論,有人呼籲給自動駕駛汽車裝上駕駛員監控系統,保證汽車在自駕車模式時,駕駛員保持警覺,眼睛時時關注道路情況。對於這個提議,黑莓公司董事長兼CEO程守宗表示,在自動駕駛汽車測試期間配備安全員是必要的,可以改善無人駕駛技術,但是,他反對為量產的自動駕駛汽車配備安全員。
程守宗認為,雖然目前幾乎所有車禍事故都是人為失誤造成的,但自動駕駛汽車其實是安全的,因為可以消除人為因素的錯誤,而減少道路上的交通事故無疑將帶來巨大的社會和經濟效益。以中國為例,如果中國的道路死亡人數減半,那麼中國的GDP將增加15%。
並且,安全員或者駕駛員監控不是保證自動駕駛汽車安全的解決方案。如果自動駕駛汽車需要駕駛員干預才能防止事故發生,那麼這就違背了無人駕駛技術的核心。在這種情況下,我們將不得不重新審視無人駕駛的安全問題。最後,如果使用此監控系統,那麼無論汽車是否在自動駕駛模式發生事故,那麼人類駕駛員都要承擔責任。多起自動駕駛汽車致命事故提出的問題是,儘管自動駕駛看起來很熱,我們還應該進一步保證自動駕駛汽車的安全。
「即使自動駕駛汽車正在做它們應該做的一切、遵守一切程式設計規則及道路規範,但僅僅靠安全駕駛可能還是不夠的,因為周遭還是會有由人類駕駛的汽車、卡車出錯的情況,」德州農工大學(Texas A&M University)機械工程系教授 Srikanth Saripalli在去年底撰寫了一篇探討自動駕駛安全的文章中如此表示。
Srikanth Saripalli研究自動駕駛10年,他的實驗室也正在開發自動駕駛汽車和自動駕駛接駁車。他認為,自動駕駛汽車發生事故,往往有2個主要原因。第一個是感測器未能檢測到車輛周圍發生了什麼事。每個感測器都有其不足處,例如GPS只能在沒有遮擋物的狀況下運作良好;攝像頭只能在光線充足情況運作;雷射雷達遇到大霧就麻煩了,雷達的精准度就會下降。所以目前還不清楚自動駕駛車輛的理想感測器組合是什麼,而且成本和計算能力也是限制因素,因此解決方案不能只是增加越來越多的感測器而已。
第2個問題是汽車遇到了系統沒有程式設計到的情況,所以就不知道怎麼處理,自動駕駛系統必須每秒做出數以百計的決定,以應對來自周遭環境的新資訊。當一輛自動駕駛汽車遇到未經程式設計處理的狀況時,它通常會停下來或停到路邊,等待情況改變,而在這一過程中,事故就有可能發生。
監管之道:拯救自動駕駛?
除了對於技術的討論之外,如何監管、如何追責也變成了大家關注的話題,於是,圍繞著「如何衡量自動駕駛汽車的安全性」和「是否需要人類駕駛員的參與」等焦點的討論也愈加如火如荼。
對待自動駕駛技術較為寬鬆的美國加州就允許沒有人類駕駛員的完全自動駕駛汽車可以在公共道路上行駛,但相較之下,德國、中國則採取了另外一種態度,允許在汽車上開啟自動駕駛系統,但司機不能離開座位。固然後者的做法看似有了人類駕駛員的參與,會稍顯穩妥許多,但由此又會引發「脫手」(hands-off)的現象,即司機長時間不參與駕駛,可能會影響其反應速度,如何在緊急情況下將汽車控制許可權從自動駕駛系統平穩過渡到司機手中,從而避免發生事故,就值得考量。
越深入討論,對於如何衡量自動駕駛汽車的安全性的標準就會會越有分歧,曾有學者提出用行駛里程來衡量自動駕駛起車的安全性,例如,自動駕駛汽車的安全駕駛里程可以達到人類水準的2倍,那麼就可以認定該自動駕駛汽車是安全的,等等。那麼在這種評價體系之下,Waymo汽車平均每隔5,600英里發生一次脫離(即需要人類駕駛員來調整掌控方向盤)現象的記錄就未必優秀,這還是對業界頂尖企業而言,至於其他車企那就更目不忍視了。當然,這些分歧和問題不會否定掉安全監管的重要性,反而會更加突出其必要性,畢竟各方只有就自動駕駛的安全標準達成共識,才能促進自動駕駛汽車的工業化和商業化發展。
在DT君採訪的過程中,很多自動駕駛車公司都對自動駕駛汽車推崇備至,因為一切都是按照合理的判斷以及完全遵守交通規則。但是,安全駕駛,可能只是作為開車的基本標準而已。因為,道路環境就跟人生一樣,實在太複雜,有太多突發狀況可能發生,因此,自動駕駛車該如何隨時準備好面對其他人「不安全駕駛」時,並做出反應、或是傷害最小的反應,這將是後續行業發展一個非常重要的議題。
本文係由DeepTech深科技授權刊登。原文連結:“总有人类想撞我”:Alphabet旗下Waymo自动驾驶汽车遭遇严重车祸,不过责任有可能完全不在它