IT之家 6 月 10 日消息,OpenAI 在幾個月內第二次就其文本轉語音工具進行解釋,并再次強調該工具目前并未大范圍開放,且未來也可能不會。
圖源 Pexels
“無論我們最終是否會大規(guī)模部署這項技術,讓世界各地的人們理解這項技術的發(fā)展方向都非常重要,”OpenAI公司周五在其網站上發(fā)布的一份聲明中表示,“這就是為什么我們想要解釋模型的運作方式、我們如何將其用于研究和教育,以及我們如何圍繞該技術實施安全措施的原因。”
據IT之家了解,去年年底,OpenAI 與一小部分外部用戶分享了其“語音引擎”。該引擎利用文本輸入和 15 秒的人聲音頻剪輯,即可“生成聽起來自然的人聲,并與原始說話人非常相似”。該工具可以創(chuàng)建以假亂真的多語言人物聲音,當時該公司表示他們選擇預覽這項技術而非大規(guī)模發(fā)布,是為了“增強社會抵御能力”,以應對“越來越逼真的人工智能生成模型”帶來的威脅。
作為這些努力的一部分,OpenAI 表示他們正在積極淘汰使用語音識別進行銀行賬戶驗證的方式,探索保護個人聲音在人工智能中使用的政策,教育公眾有關人工智能的風險,并加快開發(fā)跟蹤視聽內容的技術,以便用戶識別他們是在與真人還是合成內容進行互動。
然而,盡管做出了上述努力,人們對這項技術的擔憂仍然存在。美國總統(tǒng)拜登的人工智能負責人布魯斯·里德 (Bruce Reed) 曾表示,聲音克隆技術是他夜不能寐的原因之一。美國聯邦貿易委員會 (Federal Trade Commission) 今年 3 月表示,詐騙分子正在利用人工智能技術來提高他們欺詐行為的可信度,他們使用聲音克隆工具,使得人們更難區(qū)分人工智能生成的聲音和人類的聲音。
OpenAI 在周五更新的聲明中試圖緩解這些擔憂,“我們繼續(xù)與來自政府、媒體、娛樂、教育、民間社會等領域的美國和國際合作伙伴接觸,以確保我們在構建過程中納入他們的反潰”該公司還指出,一旦“語音引擎”配備了其最新模型 GPT-4o,它也將帶來新的威脅。該公司表示,他們內部正在積極地“對 GPT-4o 進行‘紅隊測試’,以識別和解決來自社會心理學、偏見和公平以及錯誤信息等領域的已知和未知風險。”