ChatGPT進階語音助手正式上線,涵蓋50多種語言、9種聲線可選

ChatGPT進階語音助手正式上線,涵蓋50多種語言、9種聲線可選

在首次向公眾展示的四個月後,OpenAI終於要面向其所有付費使用者開放ChatGPT的類人進階人工智慧(AI)語音助手功能——“進階語音模式”(Advanced Voice Mode,以下簡稱AVM)。OpenAI週二(24日)宣佈,所有付費訂閱ChatGPT Plus和Team計畫的使用者,都將可以使用新的AVM功能,不過該模式將在未來幾天逐步推出。它將首先在美國市場上線。

下周,該功能將向OpenAI Edu 和Enterprise 計畫的訂閱者開放。

據悉,AVM提高了部分外語的對話速度、流暢度並改進口音。

 

此外,AVM還新增了兩大功能:為語音助手儲存「自訂指令」,以及記住使用者希望語音助手表現何種行為的「記憶」的功能(這類似於今年4月OpenAI為ChatGPT文字版本推出的記憶功能)。

也就是說,ChatGPT使用者可以利用自訂指令和「記憶」來確保語音模式是個性化的,AVM會根據他們對所有對話的偏好做出響應。

語音方面,OpenAI推出了五種不同風格的新聲音:Arbor、Maple、Sol、Spruce 和 Vale,加上之前老版本的四種聲音Breeze、Juniper、Cove和Ember,可選聲音達到九種

這意味著,ChatGPT的Plus版個人使用者和小型企業團隊使用者(Teams)可以通過「說話」的方式,而不是輸入提示來使用聊天機器人。當使用者在應用程式上進入語音模式時,他們會通過一個彈出窗口知道他們已經進入了進階語音助手。

最後值得一提的是,AVM可以用超過50種語言說「對不起,我遲到了」。

根據OpenAI在X上發佈的一段影片,使用者要求語音助手表達,由於讓奶奶久等了,向奶奶致歉。AVM先用英語流暢地總結了一遍,並在使用者表示「奶奶只會說中文」後,又用標準的中文表達了一遍

不過據悉,這些更新只適用於OpenAI的AI模型GPT-4o,不適用於最近發佈的預覽模型o1。

今年5月,OpenAI首次展示了這款語音產品,並展示了它如何快速回應使用者發出的書面和視覺提示。但在6月,以解決潛在安全問題為由,推遲發佈。到了7月份,該功能也只面向有限數量的ChatGPT Plus使用者開放。

不過,新的語音模式缺少5月OpenAI展示過的不少功能,比如電腦視覺功能。該功能可讓GPT僅通過使用智慧手機的鏡頭就對使用者的舞蹈動作提供語音反饋。

 

 

cnBeta
作者

cnBeta.COM(被網友簡稱為CB、cβ),官方自我定位「中文業界資訊站」,是一個提供IT相關新聞資訊、技術文章和評論的中文網站。其主要特色為遊客的匿名評論及線上互動,形成獨特的社群文化。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則