近日,一組研究人員決定,不管是人類駕駛員還是自動駕駛車輛都傾向于優(yōu)先考慮自己車輛的安全性,而不是周圍環(huán)境的安全性。人類很自私,人工智能的行為很像人類,也就是說,兩者應該適用于同一解決方案:需要學會懂禮貌。
自動化的人類行為總是有些麻煩,特別是當涉及重型機械并且生命受到威脅時。例如,我們不希望自動駕駛車輛模仿人類的“路怒癥”。但我們確實希望自動駕駛車輛可以模仿我們對意外事件的反應能力。特斯拉的自動駕駛(Autopilot)軟件無意取代人類駕駛員,但其未能識別一輛大卡車因為卡車不是朝著汽車計算機預期的方向駛來,此行為被記錄了下來了。但是,大多數(shù)人類駕駛員犯這樣錯誤的可能性倒是很小。
我們?nèi)绾巫屪詣玉{駛車輛比人類駕駛得更好,而且更好地處理人類在道路上的不完美行為呢?據(jù)加州大學伯克利分校(University of California at Berkeley)的研究人員所說,他們改變了自動駕駛車輛的動機。該研究團隊表示:“提議自私的自動駕駛車輛關心自己的安全和駕駛質(zhì)量是不夠的,他們還應該對其他駕駛員有禮貌,這一點至關重要,因為人類并不是完全理性的,他們的行為將受到自動駕駛車輛的影響。我們提倡自動駕駛車輛應該最小化給其他駕駛員帶來的不便?!?/p>
正如之前所提到的,人類都是自私的,一旦人類發(fā)現(xiàn)自動駕駛車輛總是因保護人類犯錯誤,人類就會利用它們,更具體地說,利用它們的獎勵機制,如此一來,人類駕駛的車輛總是可以先行。在自動駕駛世界里,總是優(yōu)先考慮人類駕駛員會使自動駕駛車輛,至少從理論上來看,更慢、效率更低。一般來說,經(jīng)常避開的自動駕駛車輛將永遠無法到達任何地方。并且,如果自動駕駛車輛總是試圖最大限度地實現(xiàn)“目標”,獲取“獎勵”,最終可能變得更加地激進,因為他們像人類一樣收集了更多的駕駛數(shù)據(jù)。
為了解決此問題,研究人員想出了一個辦法來測量和量化有些人類駕駛員會采用的“禮貌”機制。畢竟,人類駕駛員也不總是在街上大吼大叫的。此辦法的工作方式是:研究人員使用算法對人類駕駛員和自動駕駛車輛的潛在行為進行成本/效益分析。當人類駕駛員與自動駕駛車輛互動時,他們會考慮以下三個場景:
1. 如果自動駕駛車輛不在,人類駕駛員會怎么做;
2. 如果自動駕駛車輛只是在幫助人類駕駛員,人類駕駛員會怎么做;
3. 如果自動駕駛車輛只是在做它之前做的事,人類駕駛員會怎么做
該研究團隊將上述場景轉(zhuǎn)變成計算機可以理解的數(shù)學語言,然后由算法完成其余工作。從本質(zhì)上來看,研究人員已經(jīng)定義和量化了禮貌程度,并且還找到了一種讓人工智能(AI)在優(yōu)化訓練時考慮到禮貌的辦法。目前,研究人員正在教人工智能找到人類攻擊性及被動性的中介點,應該可以讓自動駕駛車輛更容易處理人類駕駛時做出的非理性的行為。
該研究工作仍處于早期階段,在不加劇我們正嘗試解決的問題的基礎上找到結(jié)合機器和人類駕駛員的方法仍需要很長時間。
來源:蓋世汽車
本文地址:http://autopag.com/news/jishu/74772
以上內(nèi)容轉(zhuǎn)載自蓋世汽車,目的在于傳播更多信息,如有侵僅請聯(lián)系admin#d1ev.com(#替換成@)刪除,轉(zhuǎn)載內(nèi)容并不代表第一電動網(wǎng)(autopag.com)立場。
文中圖片源自互聯(lián)網(wǎng),如有侵權(quán)請聯(lián)系admin#d1ev.com(#替換成@)刪除。