omniture

英特爾--自動駕駛:通向更安全道路

責(zé)任敏感安全模型闡釋了如何通過規(guī)范事故過錯和車輛安全來推動自動駕駛行業(yè)發(fā)展
英特爾
2017-11-30 18:34 4574
英特爾公司高級副總裁以及英特爾子公司Mobileye公司首席執(zhí)行官兼首席技術(shù)官Amnon Shashua 教授發(fā)表了《自動駕駛:通向更安全道路》,分析了責(zé)任敏感安全模型是如何推動自動駕駛行業(yè)發(fā)展的。

北京2017年11月30日電 /美通社/ -- 英特爾公司高級副總裁以及英特爾子公司Mobileye公司首席執(zhí)行官兼首席技術(shù)官Amnon Shashua 教授發(fā)表了《自動駕駛:通向更安全道路》,分析了責(zé)任敏感安全模型是如何推動自動駕駛行業(yè)發(fā)展的。以下是他的文章全文:

我們認(rèn)為責(zé)任敏感安全(RSS)模型是一種催化劑,它能夠推動行業(yè)組織、汽車制造商和監(jiān)管機構(gòu)進(jìn)行跨行業(yè)討論。自發(fā)布以來,我和該模型的合著者們都收到了廣泛肯定,但與此同時還存在一些問題,我們的初衷就是將這些問題一一攻克。

其中一個關(guān)鍵問題就是:人類判斷處于法律、安全和文化等多方面考量,而RSS模型似乎只專注在法律層面。有人說RSS旨在讓制造商免于承擔(dān)責(zé)任這是一種誤解,我們會進(jìn)一步解釋。

RSS安全模型闡釋了如何通過規(guī)范事故過錯和車輛安全來推動自動駕駛行業(yè)發(fā)展
RSS安全模型闡釋了如何通過規(guī)范事故過錯和車輛安全來推動自動駕駛行業(yè)發(fā)展

是數(shù)學(xué),不是道德:RSS如何規(guī)范駕駛困境

首先重申一下什么是RSS。RSS規(guī)范了在一系列復(fù)雜路況中的人類判斷。它明確界定了什么是安全駕駛、什么是魯莽駕駛。對于人類駕駛員來說,碰撞和其它事故責(zé)任的解釋不是一成不變的。駕駛員的失誤,都是根據(jù)事件發(fā)生后不完整的信息和各類因素來判定的。而對于機器來說,這些定義可以是正式的、精準(zhǔn)的。機器擁有周圍環(huán)境的高度精確信息,機器知道其反應(yīng)時間和制動力,并且永遠(yuǎn)不會分心、走神或是被干擾。通過機器,我們不需要在事后解釋其行為。相反,我們可以對機器進(jìn)行編程,使其遵循一個既定模式--只要我們有辦法去規(guī)范這種模式。

RSS模型的核心,就是要把當(dāng)今的駕駛困境形成書面文字,并把它放在特定語境中理解:例如,并道和超車時的安全距離和安全車距;哪輛車超車并應(yīng)由其保持安全距離;如何把路權(quán)融入模型;如何通過有限的感應(yīng)來界定安全駕駛(比如,當(dāng)行人從建筑或停泊的車后突然出現(xiàn)),等等。顯然,人類判斷包含避免事故,而不僅僅是逃避責(zé)任。RSS旨在打下基礎(chǔ),在駕駛過程中設(shè)定人類判斷的方方面面,其目標(biāo)就是為自動駕駛汽車出具一份正式的“安全證明”。

RSS = 減少交通事故

接下來,讓我們聊一聊RSS不做什么。RSS不允許自動駕駛汽車(AV)做出導(dǎo)致碰撞的判斷--即使自動駕駛汽車擁有路權(quán)。另一方面,RSS不允許自動駕駛汽車執(zhí)行非法操作,例如:為了避免碰撞而跨過實線,或者為了避免危險而繞過并排停靠的汽車。它不允許自動駕駛汽車魯莽行動,因為,這有可能會造成其它碰撞。

RSS不允許自動駕駛汽車通過造成輕微事故來避免另一起事故。換句話說,要想避免由人類駕駛員造成的碰撞,RSS模型允許自動駕駛汽車在不造成其它事故的前提下,采取任何行動(包括違反交通法規(guī))。這種約束是恰當(dāng)?shù)?,因為,對事故?yán)重性的判斷十分主觀,很可能會忽略隱藏的關(guān)鍵變量,例如:一起看似“不太嚴(yán)重”的事故中,后座上有一個嬰兒。

無論如何,如果社會允許通過一起碰撞而緩解另一起碰撞,那么,在某種情況下,它可通過“責(zé)任傳遞性”的概念添加到RSS公式中。這樣,一起完整事故的責(zé)任就可以分配給啟動連鎖事件的車輛。我們決定,不在模型中加入這種可能性--盡管這是可以做到的。

“擁有路權(quán),而不是爭搶路權(quán)”,這個常識性觀念也是RSS的一部分。以穿越十字路口的汽車為例,路燈為車輛通行提供合法路權(quán),但是,如果另一輛汽車闖紅燈,就會擋住路口。在這種情況下,RSS并不為自動駕駛汽車提供權(quán)利,去撞擊擋路的汽車。根據(jù)RSS,如果自動駕駛汽車這樣做,那它就是過錯方。

軟件思維

從邏輯上說,要想批判RSS模型,你必須找到一個事故場景。在這個場景中,RSS確定的責(zé)任與“常識性”人類判斷不一致。但即便研究了國家高速公路交通安全管理局的各種撞車類型之后,我們也沒有發(fā)現(xiàn)這樣的場景。該研究把600萬起撞車事故歸納為37種情景,覆蓋所有這些事故的99.4%。它們都符合RSS模型,作為RSS持續(xù)開源的一部分,我們會發(fā)布相關(guān)分析。

隨著時間的推移,隨著與業(yè)界同儕、標(biāo)準(zhǔn)機構(gòu)和監(jiān)管機構(gòu)的合作不斷深入,肯定會出現(xiàn)更多使用場景。我們會把這些場景與RSS相匹配,并在必要的時候更新模型--就像人類判斷有時候也需要更新一樣。

總之,我們必須說服業(yè)界--軟件能夠做出較安全的決策。最關(guān)鍵的是,一個模型要想有用,人們就必須證明一種可能性,即開發(fā)出一種軟件,它永遠(yuǎn)不會導(dǎo)致事故、同時還能維持正常交通運轉(zhuǎn)。

還有一點不容忽視。人們必須證明,該模型不會受到“蝴蝶效應(yīng)”的影響,即:目前一個看似無害的行為,將通過一系列行動,演變成災(zāi)難事件。例如,一次具有侵犯性的并道,會導(dǎo)致后車剎車而滑入另一條車道,最終導(dǎo)致撞車。

魔鬼總在細(xì)節(jié)處

我們公布RSS模型,以此引發(fā)爭辯、討論和探索--這些都是通向正解的必經(jīng)之路?,F(xiàn)實情況是:目前并沒有RSS模型的替代方案。所以,在缺乏清晰模型的情況下,行業(yè)應(yīng)該怎么做?僅僅是支持“較佳做法”?這將轉(zhuǎn)化成另一場爭論--“我的自動駕駛汽車上的傳感器比你的更多”,或“我們的測試項目里程數(shù)比你們更多”。如果是在一個沒有清晰模型來評估安全的世界中,這些量化聲明,可能會保護(hù)自動駕駛汽車的開發(fā)者,但它們并不能保證安全。更糟的是,它會使自動駕駛汽車過度設(shè)計、造價昂貴,以至于無法惠及普通人,尤其是最應(yīng)該從中受益的弱勢群體,例如老年人和殘疾人,而我們期待自動駕駛能為他們提供靈活、可負(fù)擔(dān)、安全、按需提供的交通方式。

只把RSS模型融入自動駕駛技術(shù)還不夠。要想真正確保安全,透明度必不可少,并讓社會接受“人類判斷將被納入自動駕駛決策”這一點。我們堅信,就汽車安全而言,精密設(shè)計的自動駕駛汽車,其安全性比人類駕駛汽車提高上千倍。

要想為自動駕駛汽車成功上路做好準(zhǔn)備,需要澄清許多問題。這些問題不只是技術(shù)創(chuàng)新,或者是對比不同公司的產(chǎn)品。英特爾押注這一領(lǐng)域,是為了推動行業(yè)達(dá)成共識--絕對有必要把判斷規(guī)則、責(zé)任和過錯規(guī)范化,以實現(xiàn)對社會的巨大效益。RSS不是一個旨在規(guī)避責(zé)任的系統(tǒng),而是一個創(chuàng)新模型,其目的就是能夠讓自動駕駛汽車按照較高安全標(biāo)準(zhǔn)來運行。

我們并不會孤身前行。自動駕駛要想獲得成功,就要舉整個生態(tài)系統(tǒng)之力,讓我們從科學(xué)實驗進(jìn)入真正的市場。

消息來源:英特爾
China-PRNewsire-300-300.png
全球TMT
微信公眾號“全球TMT”發(fā)布全球互聯(lián)網(wǎng)、科技、媒體、通訊企業(yè)的經(jīng)營動態(tài)、財報信息、企業(yè)并購消息。掃描二維碼,立即訂閱!
collection