ADVERTISEMENT
人工智慧(AI)的很多潛在應用,涉及與人類互動時做出更優化的即時決策,而競技或者博弈類遊戲,便是最佳的展示舞臺。
今天,發表在《Nature》雜誌上的封面文章報告稱,AI 在賽車對戰遊戲 Gran Turismo(跑車浪漫旅)中戰勝了世界冠軍級人類玩家。這個 AI 程式名為「Gran Turismo(GT)Sophy」,是一種神經網路驅動程式,它在遵守賽車規則的同時,展現出了超凡的行駛速度、操控能力和駕駛策略。
完成這項 AI 程式研發的核心團隊來自索尼 AI 事業部(Sony AI),《跑車浪漫旅》系列遊戲是日本 Polyphony Digital 公司開發,忠實再現了真實賽車的非線性控制挑戰,封裝了複雜的多智慧體互動,該遊戲在索尼 PlayStation 及 PSP 等遊戲主機平臺上皆有發行,是一款極具擬真感操縱體驗的熱門賽車遊戲。
假如有此 AI 程式的加持,人類玩家應該再也跑不贏加強版的單機程式了吧?
研究人員認為,此項成果或讓賽車遊戲變得更有意思,並能提供用來訓練職業賽車手和發現新賽車技巧的高水準比賽。這種方法還有望應用在真實世界的系統中,比如機器人、無人機和自動駕駛汽車等。
賽道裡的玩命關頭
駕駛賽車需要極大的技巧。現代一級方程式賽車展示了驚人的工程精度,然而,這項運動的受歡迎程度與其說與汽車的性能PK有關,不如說與頂級車手在將汽車性能發揮到極限時所表現出的技巧和勇氣有關。一個多世紀以來,賽道上的成功一直充滿著速度和激情。
賽車比賽的目標很簡單:如果你比競爭對手在更短的時間內跑完賽道,你就贏了。然而,完成這一目標需要極其複雜的物理戰,馳騁賽道需要小心使用輪胎和道路之間的摩擦力,而這種摩擦力是有限的。
為了贏得比賽,車手必須選擇讓汽車保持在不斷變化的摩擦極限內的軌跡上。轉彎時煞車太早,你的車就會慢下來,浪費時間。煞車太晚,當你接近轉彎最緊的部分時,你將沒有足夠的轉彎力來保持你想要的路線軌跡。煞車太猛,可能會導致車體旋轉。
因此,職業賽車手非常擅長在整個比賽中一圈接一圈地發現並保持賽車的極限。
儘管賽車的操縱極限很複雜,但它們在物理上可以得到很好的描述,因此,它們可以被計算或學習是理所當然的。
近年來,深度強化學習(DRL)已成為 Atari、《星海爭霸》和 Dota 等領域 AI 研究里程碑的關鍵組成部分。為了讓 AI 對機器人技術和自動化產生影響,研究人員必須證明能夠成功控制複雜的物理系統,此外,AI 技術的許多潛在應用要求在接近人類的情況下相互作用,同時尊重不精確的人類規範,汽車比賽正是充滿這些挑戰的典型領域。
近年來,利用全尺寸、大規模和模擬車輛,自主賽車的研究不斷加速。一種常見的方法是預先運算軌跡,並使用模型預測控制來執行這些軌跡。然而,當在摩擦的絕對極限下行駛時,微小的建模誤差可能是災難性的。
與其他車手比賽對 AI 建模精度提出了更高的要求,並引入了複雜的空氣動力學相互作用,進一步促使工程師改進控制方案,以不斷預測和適應賽道的最優軌跡,有朝一日,無人駕駛汽車下賽道與人類車手一決高下,也並非空談。
「AI賽車手」的訓練
在 GT Sophy 的開發過程中,研究人員探索了各種使用機器學習來避免建模複雜性的方法,包括使用監督學習來建模車輛動力學,以及使用模仿學習、進化方法或強化學習來學習駕駛策略。
為了取得成功,賽車手必須在四個方面具備高度技能:(1)賽車控制,(2)賽車戰術,(3)賽車禮儀和(4)賽車策略。
為了控制汽車,車手們對他們的車輛動力學和賽道的特性有詳細的瞭解。在此基礎上,駕駛者建立所需的戰術技能,透過防守對手,執行精確的演習。同時,駕駛必須遵守高度精煉但不精確的體育道德規則,最後,車手在模擬對手、決定何時以及如何嘗試超車時,會運用戰略思維。
類比賽車是一個需要在具有高度真實、複雜物理環境中進行即時、連續控制的領域,GT Sophy 在這種環境下的成功首次表明,在一系列汽車和賽道類型中,有可能訓練出比頂尖人類賽車手更好的人工智慧代理。
這一結果可以被視為是電腦在西洋棋、圍棋、冒險、撲克牌和《星海爭霸》等競爭性任務持續發展的另一個重要步驟。
值得注意的是,GT Sophy 在短短幾個小時內就學會了繞道而行,並超過了資料集中 95% 的人類選手,它又訓練了九天時間,累計駕駛時間超過了 45000 小時,跑圈時間減少了十分之一秒,直到圈速停止改善。
單憑進步獎勵還不足以激勵AI程式贏得比賽。如果人類對手的速度足夠快,AI程式將學會跟隨,並在不冒潛在災難性碰撞風險的情況下嘗試積累更多獎勵,完成超車。
為了評估 GT Sophy,研究人員在兩項賽事中讓 GT Sophy 與頂級 GT 車手進行了較量,GT Sophy 在所測試的三條賽道上都取得了超人的計時表現,它能夠執行幾種類型的轉彎,有效地利用漂移,擾亂後面車輛,攔截對手並執行其他緊急操縱。
儘管 GT Sophy 展示了足夠的戰術技能,但仍有許多方面有待改進,尤其是在戰略決策方面。例如,GT Sophy 有時會在同一條跑道上留出足夠的空間,讓對手有機可乘。
競技遊戲外更值得關注
關於電子競技、博弈類的遊戲,AI 能戰勝人類早已經不是什麼稀奇事,而且可以確定的是,AI 還會越來越強,即便是人類頂尖選手也只能甘拜下風,但能贏電子比賽並沒有太多懸念和意義,關鍵還是看這些超越人類的 AI 程式如何切實攻克產業瓶頸,真實造福人類生活。
1996 年 2 月 10 日,超級電腦 Deep Blue 首次挑戰西洋棋世界冠軍 Kasparov 以 2:4 落敗。1997 年 5 月再度挑戰,最終Deep Blue 以 3.5:2.5 擊敗了 Kasparov,成為首個在標準比賽時限內擊敗西洋棋世界冠軍的電腦系統。
但 Deep Blue 的缺陷是沒有直覺,不具備真正的「智慧靈魂」,只能靠超強的運算能力彌補分析思考方面的缺陷,贏得比賽的 Deep Blue 很快也退役了。
2016 年 3 月,Google AI 的 AlphaGo 在四場比賽中擊敗了圍棋世界冠軍李世乭,被認為是 AI 真正意義上的里程碑,AlphaGo 當時使用了蒙地卡羅樹搜尋與兩個深度神經網路相結合的方法,在這種設計下,電腦可像人類大腦一樣自主學習進行分析訓練,不斷學習提高棋力。
自此之後,各類 AI 程式新秀層出不窮,2018 年 12 月 10 日,DeepMind 針對即時戰略遊戲《星海爭霸》開發的人工智慧 AlphaStar 能完虐全球 99.8% 的人類職業選手。
無疑,現在的 GT Sophy 又是一個 AI 勝利的延續。
來自史丹佛大學機械工程系教授 J.Christian Gerdes 認為,GT Sophy 研究所帶來的影響也許能遠遠超出電子遊戲範疇,隨著許多公司致力於完善運送貨物或乘客的全自動車輛,關於軟體中有多少應該使用神經網路,以及有多少應該僅基於物理,值得進一步去探索。
總的來說,在感知和辨識周圍環境中的物體時,神經網路是無可爭議的冠軍。然而,軌跡規劃仍然是物理和優化領域,GT Sophy 在遊戲賽道上的成功表明,神經網路有一天可能會在自動化車輛的軟體中發揮比今天更大的作用。
更具挑戰性的可能是每圈的變化。真實情況下,賽車的輪胎狀況在每圈之間都會發生變化,人類駕駛必須在整個比賽過程中適應這種變化。GT Sophy 能用更多的資料做同樣的事情嗎?這些資料從何而來?這將使得人工智慧有更多進化空間。
資料來源:
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!