ADVERTISEMENT
據說,自動駕駛汽車能使我們更加安全,因為人類是最危險的駕駛者。但是,當我們交出了控制權,把汽車變成智慧型機器人之後,是否就可以高枕無憂了呢?事情 恐怕沒有那麼簡單。當不可避免的事故即將發生,自動駕駛汽車應該做出怎樣的選擇?為了讓傷亡最小化,它應該犧牲車裡的乘客,還是盡全力保護他們?或者說, 在這種極端情況下,它應該做出隨機的選擇?
這些問題現在看起來似乎杞人憂天,但是當自動駕駛越來越聰明以及普及,意外總有發生的可能性。而到那個時候,演算法就決定了一切。
而這些問題的重要之處在於,它會決定人們對自動駕駛汽車的接受程度。畢竟,誰也不願意買一輛犧牲主人的汽車。
ADVERTISEMENT
據 的報導,法國圖盧茲經濟學院的 Jean-Francois Bonnefon 與同事展開了相關研究。他們向許多人提出了此類道德困局,然後觀察人們的反應。
「我們的研究首次涉及自動駕駛汽車的道德演算法引出的難題。」 他們表示。
ADVERTISEMENT
考慮一個這樣的困境:在不久的將來,你擁有了一輛自動駕駛汽車。某天,在行駛過程中,某個不幸事件導致汽車沖向 10 個路人。汽車無法及時停下來,但是,它可以轉向旁邊的牆壁,而這或許會導致你的死亡。它應該怎麼做?
解決此問題的一種方法是,自動駕駛汽車應該儘量減少生命損失。按照這種思路,殺死一個人要比殺死 10 個人好。但是,這種方法產生的後果是,購買自動駕駛汽車的人會變得很少,那麼,路上的安全事故仍然會照常發生,更多人有可能死去。
Boonefon 和同事希望從公眾觀點中找到一些答案。他們向人們提出了類似的道德難題。同時,他們給出了不同的細節,比如,多少行人能夠被挽救,決定汽車轉向的是司機還是電腦,參與者是乘客還是路上不知名的行人。研究結果是,通常情況下人們贊同這樣的觀點:從設計上,自動駕駛汽車應該使死亡人數最小化。
ADVERTISEMENT
問題是,參與者的想法是有局限性的。
對於自動駕駛汽車在現實中如此設計,他們其實沒有太多信心。原因是,他們希望其他人坐在利人主義的自動駕駛汽車中,而自己不會購買這樣的自動駕駛汽車。
Bonnefon 和同事們得出這樣的結論。看起來,人們認同那些為了挽救他人而犧牲乘客的汽車,只要他們不是其中的乘客就行了。
ADVERTISEMENT
Bonnefon 還表示,他們的研究只是處於起步階段,更多的難題還未曾涉及到。
為了避開摩托車,自動駕駛汽車轉向牆壁,這是否可以接受?因為,一旦發生碰撞,汽車上乘客生還的可能性更大。當孩子在車上的時候,是否應該有不同的決策?因為,孩子們能夠生活更長的時間。還有,如果汽車製造商提供了不同版本的道德演算法,而且買家有意選擇了其中一種,那麼,買家是否應該為電腦決策的後果負責呢?
「當我們賦予百萬汽車自動駕駛能力,嚴肅對待演算法的道德問題已經是非常急迫的事情了。」他們表示。
ADVERTISEMENT