財聯(lián)社9月25日訊(編輯 黃君芝)在首次向公眾展示的四個月后,OpenAI終于要面向其所有付費用戶開放ChatGPT的類人高級人工智能(AI)語音助手功能“高級語音模式”(Advanced Voice Mode,以下簡稱AVM)。
OpenAI周二(24日)宣布,所有付費訂閱ChatGPT Plus和Team計劃的用戶,都將可以使用新的AVM功能,不過該模式將在未來幾天逐步推出。它將首先在美國市場上線。下周,該功能將向OpenAI Edu 和Enterprise 計劃的訂閱者開放。
據(jù)悉,AVM提高了部分外語的對話速度、流暢度并改進口音。
此外,AVM還新增了兩大功能:為語音助手存儲“自定義指令”,以及記住用戶希望語音助手表現(xiàn)何種行為的“記憶”的功能(這類似于今年4月OpenAI為ChatGPT文本版本推出的記憶功能)。
也就是說,ChatGPT用戶可以利用自定義指令和“記憶”來確保語音模式是個性化的,AVM會根據(jù)他們對所有對話的偏好做出響應。
語音方面,OpenAI推出了五種不同風格的新聲音:Arbor、Maple、Sol、Spruce 和 Vale,加上之前老版本的四種聲音Breeze、Juniper、Cove和Ember,可選聲音達到九種,撤走了被指山寨“寡姐”(女演員斯嘉麗約翰遜)的聲音Sky。
這意味著,ChatGPT的Plus版?zhèn)人用戶和小型企業(yè)團隊用戶(Teams)可以通過“說話”的方式,而不是輸入提示來使用聊天機器人。當用戶在應用程序上進入語音模式時,他們會通過一個彈出窗口知道他們已經(jīng)進入了高級語音助手。
最后值得一提的是,AVM可以用超過50種語言說“對不起,我遲到了”。
根據(jù)OpenAI在X上發(fā)布的一段視頻,用戶要求語音助手表達,由于讓奶奶久等了,向奶奶致歉。AVM先用英語流暢地總結了一遍,并在用戶表示“奶奶只會說普通話”后,又用標準的中文普通話表達了一遍。
不過據(jù)悉,這些更新只適用于OpenAI的AI模型GPT-4o,不適用于最近發(fā)布的預覽模型o1。
今年5月,OpenAI首次展示了這款語音產(chǎn)品,并展示了它如何快速響應用戶發(fā)出的書面和視覺提示。但在6月,以解決潛在安全問題為由,推遲發(fā)布。到了7月份,該功能也只面向有限數(shù)量的ChatGPT Plus用戶開放。
不過,新的語音模式缺少5月OpenAI展示過的不少功能,比如計算機視覺功能。該功能可讓GPT僅通過使用智能手機的攝像頭就對用戶的舞蹈動作提供語音反潰
(財聯(lián)社 黃君芝)