在首次向公眾展示的四個月後,OpenAI終於要面向其所有付費使用者開放ChatGPT的類人進階人工智慧(AI)語音助手功能——“進階語音模式”(Advanced Voice Mode,以下簡稱AVM)。OpenAI週二(24日)宣佈,所有付費訂閱ChatGPT Plus和Team計畫的使用者,都將可以使用新的AVM功能,不過該模式將在未來幾天逐步推出。它將首先在美國市場上線。
下周,該功能將向OpenAI Edu 和Enterprise 計畫的訂閱者開放。
據悉,AVM提高了部分外語的對話速度、流暢度並改進口音。
We’ve also improved conversational speed, smoothness, and accents in select foreign languages. pic.twitter.com/d3QOIBFCZb
— OpenAI (@OpenAI) September 24, 2024
此外,AVM還新增了兩大功能:為語音助手儲存「自訂指令」,以及記住使用者希望語音助手表現何種行為的「記憶」的功能(這類似於今年4月OpenAI為ChatGPT文字版本推出的記憶功能)。
也就是說,ChatGPT使用者可以利用自訂指令和「記憶」來確保語音模式是個性化的,AVM會根據他們對所有對話的偏好做出響應。
語音方面,OpenAI推出了五種不同風格的新聲音:Arbor、Maple、Sol、Spruce 和 Vale,加上之前老版本的四種聲音Breeze、Juniper、Cove和Ember,可選聲音達到九種。
這意味著,ChatGPT的Plus版個人使用者和小型企業團隊使用者(Teams)可以通過「說話」的方式,而不是輸入提示來使用聊天機器人。當使用者在應用程式上進入語音模式時,他們會通過一個彈出窗口知道他們已經進入了進階語音助手。
最後值得一提的是,AVM可以用超過50種語言說「對不起,我遲到了」。
根據OpenAI在X上發佈的一段影片,使用者要求語音助手表達,由於讓奶奶久等了,向奶奶致歉。AVM先用英語流暢地總結了一遍,並在使用者表示「奶奶只會說中文」後,又用標準的中文表達了一遍。
Advanced Voice is rolling out to all Plus and Team users in the ChatGPT app over the course of the week.
— OpenAI (@OpenAI) September 24, 2024
While you’ve been patiently waiting, we’ve added Custom Instructions, Memory, five new voices, and improved accents.
It can also say “Sorry I’m late” in over 50 languages. pic.twitter.com/APOqqhXtDg
不過據悉,這些更新只適用於OpenAI的AI模型GPT-4o,不適用於最近發佈的預覽模型o1。
今年5月,OpenAI首次展示了這款語音產品,並展示了它如何快速回應使用者發出的書面和視覺提示。但在6月,以解決潛在安全問題為由,推遲發佈。到了7月份,該功能也只面向有限數量的ChatGPT Plus使用者開放。
不過,新的語音模式缺少5月OpenAI展示過的不少功能,比如電腦視覺功能。該功能可讓GPT僅通過使用智慧手機的鏡頭就對使用者的舞蹈動作提供語音反饋。
- 延伸閱讀:OpenAI ChatGPT 新增自動模式,基於提示詞複雜度靈活選擇合適 AI 模型
- 延伸閱讀:關於OpenAI 新推出的強大 AI 模型 o1你必須知道的 9 件事
- 延伸閱讀:OpenAI的SearchGPT:想當「Google殺手」目前還不夠資格
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!