iPhone 16的Visual Intelligence視覺智慧功能,是對Google Lens的直接挑戰

iPhone 16的Visual Intelligence視覺智慧功能,是對Google Lens的直接挑戰

隨著蘋果公司在週一的發佈會上公佈「視覺智慧」(Visual Intelligence)功能,分析認為,蘋果與Google的搜尋合作關係正在發生新的轉變。

目前,Google母公司Alphabet每年向蘋果支付大約200億美元,讓Google成為其Safari瀏覽器的預設搜尋引擎。

但此舉被美國法院裁決違反美國反壟斷法,這起案件是美國二十多年來最大反壟斷案,Google數十年在搜尋市場的主導地位可能被顛覆。而對於蘋果,如果沒有這筆收入,蘋果約15%稅前利潤將受到影響。

蘋果版本的Google Lens

但現在,蘋果似乎可以用發佈的新功能「升級」與Google的合作:iPhone 16使用者可以利用裝置上新設的相機控制按鈕(Capture Button)點選瀏覽Google的搜尋引擎及其視覺搜尋功能。

蘋果解釋說,相機控制按鈕不僅可以讓使用者快速拍照或錄製視訊,還可以通過滑動按鈕調整諸如變焦、曝光或景深等選項。

然而,這個按鈕還提供了訪問蘋果的新“visual intelligence”搜尋功能的入口,這正是與Google合作的關鍵所在。

最初,這個相機控制按鈕看起來像是蘋果對「快門按鈕」的一種新叫法,但隨著發佈會的進行,蘋果進一步解釋了該硬體功能的更多用途。通過視覺智慧搜尋功能,使用者不僅可以輕鬆瞭解相機所見的一切,還可以通過該功能更便捷地訪問第三方服務,而無需啟動獨立應用程式。

iPhone 16的Visual Intelligence視覺智慧功能,是對Google Lens的直接挑戰

事實上,這個功能本質上與Google的Google Lens或Pinterest Lens差不多,蘋果將視覺智慧搜尋描述為一種能夠立即瞭解你所見事物的方式。在幾個示例中,蘋果展示了使用者如何點選相機控制按鈕,以獲取看到的餐館的營業時間資訊,或者如何使用該功能識別在散步時看到的狗的品種。該功能還可以將牆上的活動海報轉換進入個人日程,包含所有詳細資訊。

iPhone 16的Visual Intelligence視覺智慧功能,是對Google Lens的直接挑戰

蘋果軟體工程高級副總裁Craig Federighi隨後提到,該功能也可以用來瀏覽Google搜尋。展示中顯示,當使用者將iPhone對準一輛自行車並點選相機控制按鈕時,螢幕上會彈出一個類似選項的購買資訊窗口。隨後螢幕上顯示的“更多Google結果”按鈕,表明使用者可以通過再次點選繼續進行Google搜尋。

iPhone 16的Visual Intelligence視覺智慧功能,是對Google Lens的直接挑戰

然而,蘋果並沒有解釋何時或如何點選相機控制按鈕時會轉向第三方合作夥伴,而非內建的蘋果服務來提供答案,也沒有詳細說明使用者如何控制或組態此功能。Federighi僅模糊地提到:「當然,您始終可以控制何時使用第三方工具。」

雖然Google的發言人表示目前沒有更多資訊可以分享,但這一功能被認為是兩家公司現有合作關係的一部分,並且與Google的Gemini AI無關。

分析認為,這個功能的有趣之處在於,它為與軟體和服務的互動引入了新的模式,超越了蘋果隨iPhone附帶的服務。隨著人工智慧技術的發展,使用者可以通過新的介面與AI助手對話或傳送文字,而不是依賴應用程式商店的app來完成任務。

蘋果通過與第三方服務合作,保持了與新興技術的緊密連接,同時避免了直接競爭ChatGPT等AI工具。

在發佈會中,OpenAI的ChatGPT也作為第三方合作夥伴展示了其功能,使用者可以通過Siri訪問ChatGPT。展示中顯示,使用者只需將手機對準課堂筆記,點選按鈕即可獲得對概念或問題的幫助。

 

 

 

cnBeta
作者

cnBeta.COM(被網友簡稱為CB、cβ),官方自我定位「中文業界資訊站」,是一個提供IT相關新聞資訊、技術文章和評論的中文網站。其主要特色為遊客的匿名評論及線上互動,形成獨特的社群文化。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則