5 月份特斯拉的 「自動巡航 」系統導致的車主死亡事件,因為 6 月 30 日美國國家公路交通安全管理局(NHTSA)調查而不得不被披露出來,這起事故終於成了全球重要的關注新聞。
相信大家都知道了這起事故的介紹和一些技術問題,這裡不再重複。這個事故並不是只涉及一家公司和一項技術,它還涉及了科技和人的關係,以及企業和社會責任。在這裡幫大家釐清一些相關的問題。
1.特斯拉採用了幾種技術,鏡頭部分來自以色列公司 Mobileye,它們研製的技術確切的說法是 「輔助駕駛」,而不是 「自動駕駛」。
Mobileye 公司對他們的技術介紹是這樣的:「Mobileye 是視覺訊息處理領域的演算法和晶片系統領導者,主要是針對駕駛員輔助系統(DAS)市場。」,以及 「Mobileye 技術讓路上的旅客更安全,減少交通事故,挽救生命,同時具有透過自主駕駛重塑駕駛體驗的潛力。」
Mobileye 對於自己技術的定位很清楚,它是人類駕駛員的輔助,不是自動駕駛。他們雖然表示了未來有全自動駕駛的可能性,但也明確表示了現在不是這樣。
Mobileye 提供的技術是特斯拉使用的 「自動駕駛」 相關技術中最先進的一部分。除此之外,其他如防撞雷達,傳感器,都不是什麼新鮮東西,最近 5 年買過中等價格車的話,如果選了比較好的配備,利用雷達來這些防止碰撞,防止追撞,甚至自動停車之類的功能都應該是標配了。
把這幾種東西放在一起,確實能提供一些方便,但是距離產生真正的革新還差得太遠了。Mobileye 的系統幾乎和各大汽車廠商都在合作,從BMW、TOYOTA到通用汽車,都有比較成熟的系統。
按照 Mobileye 自己的介紹,他們的晶片 EyeQ 從 2007 年開始商轉第一代產品,到 2014 年 3 月份已經安裝在了 330 萬輛汽車上,涉及 160 個車型和 18 個汽車製造商。這完全不是一個新東西,只是其他廠商不敢把這種東西叫做 Autopilot 罷了。
2.特斯拉本身其實也多次強調這只是輔助駕駛系統,但是擋不住媒體和粉絲們熱烈追捧,儼然把這種技術的應用看成了科技革命。
因為對特斯拉的盲目崇拜,車主們似乎真的相信特斯拉掌握著目前最先進的自動駕駛技術,而且這種技術完全可用,比人駕駛錯誤率更低,於是他們就真的開始不管方向盤讓這套系統自己駕駛了。
在 YouTube 上可以看到很多熱心車主的所謂 「測試」 影片,他們雙手離開方向盤,吃東西,刮鬍子,甚至在手機上玩遊戲。特斯拉明確知道這種狀況要出問題,也曾經試圖升級系統,讓給他們的自動駕駛模式增加一系列限制,比如最高速度限制在 45 MPH 之類,但最後在車主的抗議、甚至威脅去訴訟的強烈反對中作罷。很可能這又是一個企業被用戶綁架的例子。
如果對電腦視覺和機器學習有一點基本認知,就會明白為什麼這些系統只能是輔助作用。我們可以用前一段 AlphaGO 和李世石的圍棋大戰來做個例子幫助理解,這兩者有一些區別,不算特別準確的對比,但大致可以說明問題。在那場大戰中,電腦的輸入和輸出仍然是人管理的,有人替 AlphaGo 落子,並且把結果輸入回系統。使得 AlphaGo 處在一個無干擾的環境中,有明確且準確的數據輸入,系統穩定性也就很高。
但在汽車上,輸入是鏡頭、雷達和傳感器。我們先不討論人工智慧系統的準確度,僅談電腦視覺,即使在相對穩定的測試環境下,有充足的計算資源和時間, 準確度仍然達不到 100%。
何況是在汽車上,運算能力受限、時間要求極高,並且路上的情況千變萬化,這樣的準確度就下降更多了。無論鏡頭還是雷達各有其工作限制,受到天氣、雨雪、落葉、塵土等等影響,也不可能總是正確。
3.目前自動駕駛所收集到的數據資料還不足
再說數據處理這部分,各家的演算法雖然各自有一些區別,但歸根結底原理都是差不多的,這些年流行的主要是深度學習相關的技術。
同樣的技術也被用於 AlphaGo 的對戰中,如果你還記得那場 AlphaGo 輸掉的對戰,應該還記得那時候的感覺,當時圍觀者直接的感受是 「AlphaGo 的水準突然下降,從超越九段的高手瞬間變成了圍棋愛好者水平,連出錯誤 」。是的,在這樣的系統裡面,一定會在某些時候出現這種情況。
從圖像輸入到計算出來結果,其中每一個環節都有可能導致這樣狀況。所以如果是對相關技術有比較清醒的認知,應該現在是不敢開著所謂 「自動巡航」 的特斯拉,自己去刮鬍子的。
程式不像人,一旦出問題,它的錯誤反映的會更加激烈和明確。在最終的表現上,就是它在 99.9% 的時間可能工作很正常,但那 0.1% 不正常的時候,會突然變得連基本功能都完成不了,而且難以修正。並不是像人那樣,一個正常人很難出現到瞬間從天才變成白痴這樣的異常情況。
更糟糕的是,這種錯誤會同時存在所有同一版本的軟體上,完全能重現。100 個人類司機不會犯一樣的錯誤,但 100 台裝了同樣版本系統的車輛,會在同樣的情況下出同樣的問題,影響會非常大。
媒體們說:「人類司機和鏡頭都沒能識別白色的貨車」,這個形容對這起事故過於美化了。這個案例中,人類司機並沒認真駕駛車輛,他當然沒能識別到白色的貨車。
但一個正常駕駛的司機能不能識別這種情況呢?事發時候正在白天,能見度很好,通常應該是能的,就算確實沒能提前看到它,到附近的時候仍然有機會減速,或者透過改變方向撞向隔離帶之類不致命的地方,不至於和自動駕駛系統漏檢之後一樣,完全不減速撞向貨車,穿過貨車之後司機已經死亡,車輛還停不下來繼續往前開了幾百公尺。
只要寫過程式的人,應該都會理解 「軟體一定存在 Bug」。從演算法到最終商品之間還有漫長的距離,還需要大量的包裝和產品化工作,這些工作都會帶來 Bug,而且這些系統最終基於的現有其他技術,比如作業系統和其他標準程式庫,也一樣會出現 Bug。當 Bug 出現的時候,軟體能正確處理好當前的情況嗎?恐怕也很不樂觀。
4.目前的交通系統是以人類為中心建立的一種高容錯度系統
目前在道路上,一個新手,只需熟悉基本交通規則,透過考試就可以上路行駛,路上的其他人會根據他的駕駛情況適應你的存在。對於新手,人們可能會禮讓一些,對於其他地方車牌的車輛也會禮讓一些,這樣的規則是長期車輛行駛中建立的文化,並不是硬性規則。
有經驗的駕駛會說:「如果大晴天旁邊的車雨刷突然動了一下,這應該就是一個想打燈右轉的新手司機。」 人類暫時判斷失誤,通常是可以被道路上其他參與者預測和感知到的,不至於導致太糟糕結果。
這樣的高容錯系統中混入大量自動駕駛車輛很可能是一種災難,因為後者一旦出現錯誤,行為就變得非常詭異,就算是有經驗的人類司機也難以預測它。
儘管自動駕駛車輛能 99% 準確遵守交通規則,仍然會產生各種難以預料的情況。要解決這個問題,大概只能把人類司機徹底排除在交通系統之外,100% 靠自動駕駛。但現階段在法律和政治上毫無疑問是不可行的。
綜合這些情況,可以有一個比較確切的結論:在現在這個階段,人 / 機之間的關係仍然是互相補充,互相發現對方的 Bug。
5.「Autopilot(自動巡航)」誤導不懂技術的使用者
可靠的辦法,是把輔助駕駛技術做為一種應急備份,用來在人失敗的情況下的最後一次補救,而不應該反過來,讓人去彌補機器的錯誤。因為人從放鬆到緊張的狀態切 換不那麼容易,如果以機器為主導,人長時間出於放鬆狀態,等到機器出問題的瞬間,幾乎不可能指望人能有及時而正確的反映。
特斯拉在這方面的行為,無論是用 「Autopilot(自動巡航)」更換「ADAS(高級駕駛輔助系統)」,還是長期對社群以及 YouTube 上那些用戶瘋狂的縱容甚至暗示和鼓勵,都是非常不負責任的。
出了事情很多人會把問題推給用戶,說廠商明確告知了風險,但沒出事的時候所有人都在推波助瀾,誇獎這個技術多麼酷炫。相信廠商也明白,這樣一套系統一旦到了對背景、知識毫無瞭解的用戶手裡,這些用戶是不會在乎這種風險提示的。
Autopilot 這個名字就影響了用戶的認知,再加上社群和媒體的推波助瀾,真是擋也擋不住。如果陰謀論一點的話,廠商甚至是有意默許此事,以獲得更多的自動駕駛里程數據。
在此事之前,媒體都喜歡說 「特斯拉的自動巡航里程迅速上升,已經超過了 Google 好幾年的成果」… 這種行為就如同把機槍送給猴子,天知道他們會作出什麼事情來。這起事件的最終影響還不知道,要等待美國國家公路交通安全管理局的調查結果,最糟糕的情況下,很可能影響整個自動駕駛業的發展。
6.「自動駕駛比人類駕駛的事故率更低」只是一種宣傳說法
道路交通是一個非常微妙的行為,它牽扯到了參與交通所有人共同的默契。
目前這種技術條件下的技術大規模放到普通車輛上,不僅僅是對車主本人的風險,對於路上其他人並不公平。我按照交通規則開車,認為所有人都會遵守跟我差不多的規則,誰會想到旁邊有個自動駕駛的車輛出了 Bug?
如果是專業人員測試,會加倍小心預防各種意外情況,這倒不太可怕。但一般使用者不會這樣,他們把道路上所有人都牽扯進了這場危險的遊戲。這恰恰是其他傳統汽車廠商不敢幹這件事的原因,無論TOYOTA還是BMW,都在駕駛輔助系統上投入巨大,也具有成熟性的產品,但以他們廣泛的車輛使用者數量,如果把這種系統送到用戶手裡,風險就不是這等級了。
媒體還喜歡宣傳的一個口徑是 「自動駕駛比人類駕駛的事故率更低」。但在駕駛這個問題上,比較這種平均數意義並不大。
人類駕駛事故導致的死亡,有相當比例是酒駕、駕駛注意力不集中、超速和不繫安全帶造成的。以加拿大的安大略省為例,2014 年全省十萬人口車禍事故死亡率 3.52 人,在北美算相當低,這裡人們駕駛習慣很好,但這幾個因素仍然佔相當比例:
在 2014 年安省致死的機動車事故數據中,酒駕佔 24.9%,駕駛注意力不集中 17.9%,超速 17.0%,不繫安全帶 12.5%,其他交通違章情況沒統計在內。
美國因為這些問題影響的比例更大,所以如果不做這些違法事情的話,一個人類司機的事故率遠沒有媒體渲染的那麼高。
更何況,人類個體差異相當大,有人 20 年一張罰單都沒有,有人經常出各種事故,這兩者怎麼能平均起來統計成人類的事故率去和自動駕駛比較呢?
在這種情況下,個體的意義大於整體統計數字,而一些輔助系統,比如安全帶警報系統、或者給有酗酒歷史的司機安裝的車內酒精含量檢測系統都可以避免很多潛在事故,從而救了更多的人。甚至嚴格的交通法律,增加執法力度,給予更多培訓都是非常有用的辦法。如果只從降低事故率考慮,上述這些方法遠比試圖用自動駕駛取代人類司機有效。
考慮到無人駕駛的道德問題,也就是在某些特定情況下,讓車上的人類受傷還是讓對面的司機受傷,或者讓周圍的行人死亡,形成的道德困境,那些純自動,車上沒有人,用來運算貨物或者特殊用途的無人駕駛系統似乎更可行一些。
這種車上沒有人,遇到危險情況自己撞下懸岩也只不過是損失了一輛車和貨物,不會讓其他人受傷或者死亡。人機混合在一起的,以機器為主導的自動駕駛系統面對這個道德困境很難有好的解決方案。
在這起事件之後,各國應該會逐步制訂規範無人駕駛的法規,比如至少這樣的車輛應該有明確的標記,讓其他人知道它存在無人駕駛的可能性,路上的其他人類司機有權利知道這件事,並且採用自己的防禦或者規避策略。
或者車輛之間的通訊系統會被制訂成規範,無論是自動車還是人類駕駛的車都會安裝,從而讓車輛瞭解周圍其他車輛的情況。這種聯網系統如果不考慮隱私的話,應該會對交通情況有很大幫助,但它跟自動駕駛並不直接相關,人類駕駛也需要這樣的系統。
綜合這些因素,在短期內,有嚴格限制的更高級的駕駛輔助系統,以及少量的純自動的專業用途車輛,這兩個方向都是有可能實現的,但讓車輛自己駕駛,同時人坐在駕駛座上刮鬍子、吃飯,這種情況應該很難被普及。
<( ̄︶ ̄)>
無奈的是在現今這個資本主義的時代之下各國政府對於商業行為的法律規範其實遠遠落後於現實需求,
當政府默許商人誤導消費者以利行銷而消費者也表達了樂於被誤導的消費行為反饋,類似的事件只不過是必然的結果;一個遲早顯現的問題,差別不過是當它發生時所造成的災害有多嚴重罷了。
囧rz
另外自動駕駛技術本就不是為了道路安全而被產生出來的,
其主要目的是為了取代掉職業駕駛人的存在,
因為西方這些民主、先進國家對人權比我們這裡重視得多所以他們的勞權高、人工貴,
也因此在這個西方文民主導的科技產業所推出的自動化技術以及相關產物都是為了幫資方進一步降低人力成本,
朝這個方向發展的極致自然是想法子把人拿掉。
自動駕駛技術是為了運輸業企業主或是產業界的運輸層面希望再降低或者更為穩定地控制成本而誕生的。
╮(╯_╰)╭