Google 年度開發者大會 I/O 2019 正式召開。從搜尋到 Android,從智慧助理到深度學習,這家地表最強科技公司的眾多部門一展在過去一年時間裡取得的進展。今年的許多新功能、技術和體驗,重點都被放在了「用 AI 為人服務,降低干擾、去除繁瑣和提高效率」這件事上。
在本屆 I/O 大會中,我們看到了一個從未如此強大,甚至接近所謂「通用人工智慧」的 Google Assistant 虛擬助理。只需要用自然語言發佈命令,它就可以完成過去從未想過能完成的任務;
我們還感受到圍繞 Google 搜尋的新功能帶來的前所未有的體驗創新,讓我們在國外旅行時再也不用擔心看不懂菜單、交通指示;
通過新的深度學習技巧 federated learning,用戶不需要上傳資料,就能感受到 AI 模型所帶來的定製化體驗。Google 將它運用到了十億級用戶的產品當中,讓我們看到它在 AI 的時代保護用戶資料隱私,不只是嘴上說,也有切實的行動。
這次 I/O 上,Google 還宣佈了許多針對障礙人士設計的功能,比如讓為「漸凍人症」(ALS)患者的面部表情設計神經網路,從而讓機器可以理解這些障礙人士的「自然語言」……
Duplex on the web :AI 幫你完成重複工作
在北美工作和生活,經常在線上完成訂單的同學可能經常遇到這一情況:每次都要填寫大量的表格,輸入重複的信息,包括姓名、聯繫方式、機票時間班次、車型、帳單地址、送貨地址等,來回在各種網頁跳轉,如果在手機網頁上還要放大縮小頁面點到表格上才能輸入……浪費了大量的時間
為什麼這類操作,不能像密碼 autofill 那樣自動完成?
Duplex on the web 是 Google Assistant 的一個新能力。它的任務,就是幫助你在網頁上完成任何任務。不過目前,它主攻的方向是完成訂單,比如網購、租車和訂票。
比如在下面影片中,用戶因為出差需要租車。Google Assistant 可以:
1)透過行事曆檢視用戶的日程、目的地和往返航班信息,
2)自動打開租車網站,確認上述資訊是否正確,
3)再按照用戶以往租車習慣直接選擇車型,再次跟用戶確認,
4)最後確認整個訂單。
如果你仔細觀察,全程使用者只點了4次螢幕……四次!就下好了訂單,完成了整個租車的流程。
為什麼 Google Assistant 能夠代替用戶完成這些任務?首先,因為 Google 內部系統打通,Assistant 可以讀取用戶的 Gmail、行事曆及已經存過的付款資訊,免去用戶手動輸入。其次,Duplex on the web 本身是一項非常複雜,但在提升用戶效率上的技術。它的核心是一個遞迴神經網路 (RNN),執行包括自然語言理解、處理、語音識別、文字轉語音、信息錄入等多種任務。
去年我們報導過,Duplex 可以模擬出一個自然聲音,替用戶給餐館、酒店或理髮店打電話,展現出了強大的自然語言計算能力。
其實,Duplex 的本質就是一個專門做「下訂單」這件事的聊天機器人。不過,去年的 Duplex 和今年的Duplex on the web 區別在於:前者的互動功能就是聊天,基於語音識別和自然語言處理,後者更強調讓 AI 完成基於圖形界面的互動工作。
該功能將在今年晚些時候面向美國和英國市場推出,支援所有內置 Google Assistant 的 Android 手機,可以完成的任務包括租車和電影票。
無疑,如果你已經在使用 Google 產品,Google 就已經拿到了你大量的資料。在無法離開Google全家桶/沒有更好的替代方案前提下,我們自然會希望 Google 為我們帶來更多的價值。Duplex on the web 就是這樣一個功能,它幫助我們完成高重複性的工作,帶來了效率和體驗的提升。
可以離線使用的Google Assistant
今年,由於在遞迴神經網路技術方面的進步,Google 將新版 Google Assistant 背後的神經網路模型大小從數百 GB 縮小到了不到500MB。這意味著兩件事:
1)Google Assistant 終於可以不需要和雲端相連,在手機端使用了;
2)正因為不需要聯網,它的語音識別、響應和完成任務的速度顯著提升了。
現場演示的效果令人震驚。隨著演示者說出命令,句子說完的一秒鐘之內 Google Assistant 已經執行完畢:演示者命令手機打開計算機、行事曆、瀏覽器等軟體,以及約翰‧傳奇的 Twitter 頁面,Assistant都迅速完成了任務。
演示者讓 Assistant 在 Google Photos 裡找到所有黃石公園的照片,Assistant 很快就找到了那些照片。演示者又追加了一句「the ones with animal"(完整語境:黃石公園所有照片裡有動物的照片),雖然命令裡沒有任何語境,但是 Assistant 仍然正確找到了響應的照片。
當回覆郵件時,Assistant 還能理解演示者所說的話屬於郵件正文,還是「標題:xxx」這樣的命令,並作出對應的操作。
全程,演示者沒有觸碰螢幕一次,所有的任務都通過語音完成——虛擬助手的執行能力和效率已經和鋼鐵人的賈維斯差不多。而且因為不需要聯網,現場的演示是在飛航模式下進行!
Google 宣稱,因為可以在本機執行,新版 Google Assistant 理解和處理的速度比當前版本快10倍。不僅如此,新版 Google Assistant 的自然語言理解能力比前代有很大增強,現在可以連續追加請求,不用每次都加一句"Hey Google/Ok Google",而且還能跨應用程式完成任務。
可能是因為對手機計算性能或者特殊硬體有要求,Google 宣佈要等到下一代 Pixel 手機才可以使用新版 Assistant。不過按照慣例,新功能發佈半年到一年之後,因為 Google 對神經網路模型的持續優化,舊款設備應該也會支援。
對於一般人來說,Google Assistant 的改進效果可能並沒有那麼顯著,畢竟大部分人都有靈活的雙手,也不一定認為語音控制就是最合適的交互方式。但是,對於雙手行動不便的障礙人士,更快的反應速度,以及對語音控制的更好支援,意味著當他們使用手機時,也可以享受 AI,享受 Google Assistant 對生活和工作帶來的改善。
- 本文轉載自pingwest
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!