儘管手機螢幕越來越大是顯而易見的趨勢,但未來我們卻未必還會使用現在早已滿大街都是的大螢幕手機。根據Google高級工程主管Scott Huffman接受《衛報》採訪時的說法,未來的智慧型手機可能不再會配備螢幕,將完全依靠語音辨識來進行互動。
這一設想的最大依據是,Google發現人們使用語音搜尋和識別工具的頻率顯著增加了。「我們正在進入一個身處各種智慧設備的未來。」Huffman說,「我們的口袋裡裝著一台『超級電腦』,手上戴著一隻智慧型手機,連上戴著一副Google Glass,或許哪一天我們的領口也會架上一台『筆記型電腦』。這些設備中有一些有螢幕和鍵盤,有一些沒有,同時我們又見證了越來越多的人正在透過語音辨識的方式與設備進行互動。」
或許有人會因此而擔心自己隱私,畢竟不會有人希望身邊的智慧設備即時地「監控」著自己說過什麼話。Google為此引進了PFS(全稱Perfect Forward Secrecy,這是一種密碼系統,如果一個金鑰被竊取,那麼只有被這個金鑰加密的資料會被竊取),為使用者語音資料傳輸加密服務。
Google已經將語音控制特性滲透到了他們旗下的很多產品。除了高度依賴語音控制的Google Glass,Google還在Android和iOS設備上推出了附帶Google Now語音助理特性的Google搜尋app,Chrome的跨平台性也會幫助Google更快地佈局語音搜尋。
目前,超過美國人口總數一半的美國人擁有附帶語音控制功能的智慧型手機,其中有三分之二瞭解語音控制。Google的發言人稱,這些人中有將近一半會每個月至少使用一次,將近五分之一的人每天都會使用。
Huffman認為,人們仍然需要一段時間才能完全接納語音控制這一技術。「我們正在致力於研究口音識別技術,雖然目前還存在很多問題。但難關解決了之後,現實將會變得很魔幻。」Huffman說。(題圖:shutterstock)
童濱 tongbin@pingwest.com
延伸閱讀:
iPhone 4S Siri 來台灣實測,台灣人對 Siri 講英文通不通?
Siri 對戰 Android 語音辨識:持續兩周的深度測試
不然還是需要藉由螢幕閱讀資料
至少現在已經從Siri或是google now剛出現的時候,需要"手動執行>下指令",進化到moto x的"語音執行>下指令",未來是朝向不用執行這個動作,處理裝置能自動辨識你的話語中的這個是不是指令,然後執行,像是帶個小秘書在身邊。
雖然Personal Digital Assistant的概念很久了,但是現在還是停留在使用者丟資料到PDA上(被動),而不是PDA自己去猜測並獲取使用者想要丟的資料(主動,從google now的運作來看,google是想朝這方面去進行),而google想從語音對話這方面下手,這也是目前比較容易實現的,至少讀取腦波感覺路還很長 〒ˍ〒
如果將來【人工眼球】: 能內建 Google眼鏡 及 添加一些( 如 夜視 )功能等,,
個人感覺:將來 是 最可行 的方式。