財(cái)聯(lián)社5月14日訊(編輯 趙昊)北京時(shí)間周二(5月14日)凌晨,美國(guó)人工智能研究公司OpenAI在線上舉辦了“春季更新”活動(dòng)。
整體來(lái)看,活動(dòng)主要分為兩大部分:推出新旗艦?zāi)P?ldquo;GPT-4o”,以及在ChatGPT中免費(fèi)提供更多功能。
GPT-4o登場(chǎng)
OpenAI在活動(dòng)中發(fā)布了新旗艦?zāi)P?ldquo;GPT-4o”,“可以實(shí)時(shí)對(duì)音頻、視覺(jué)和文本進(jìn)行推理。”據(jù)介紹,新模型使ChatGPT能夠處理50種不同的語(yǔ)言,同時(shí)提高了速度和質(zhì)量。
GPT-4o的“o”代表“omni”。該詞意為“全能”,源自拉丁語(yǔ)“omnis”。在英語(yǔ)中“omni”常被用作詞根,用來(lái)表示“全部”或“所有”的概念。
新聞稿稱(chēng),GPT-4o是邁向更自然人機(jī)交互的一步,它可以接受文本、音頻和圖像三者組合作為輸入,并生成文本、音頻和圖像的任意組合輸出,“與現(xiàn)有模型相比,GPT-4o在圖像和音頻理解方面尤其出色。”
在GPT-4o之前,用戶使用語(yǔ)音模式與ChatGPT對(duì)話時(shí),GPT-3.5的平均延遲為2.8秒,GPT-4為5.4秒,音頻在輸入時(shí)還會(huì)由于處理方式丟失大量信息,讓GPT-4無(wú)法直接觀察音調(diào)、說(shuō)話的人和背景噪音,也無(wú)法輸出笑聲、歌唱聲和表達(dá)情感。
與之相比,GPT-4o可以在232毫秒內(nèi)對(duì)音頻輸入做出反應(yīng),與人類(lèi)在對(duì)話中的反應(yīng)時(shí)間相近。在錄播視頻中,兩位高管做出了演示:機(jī)器人能夠從急促的喘氣聲中理解“緊張”的含義,并且指導(dǎo)他進(jìn)行深呼吸,還可以根據(jù)用戶要求變換語(yǔ)調(diào)。
圖像輸入方面,演示視頻顯示,OpenAI高管啟動(dòng)攝像頭要求實(shí)時(shí)完成一個(gè)一元方程題,ChatGPT輕松完成了任務(wù);另外,高管還展示了ChatGPT桌面版對(duì)代碼和電腦桌面(一張氣溫圖表)進(jìn)行實(shí)時(shí)解讀的能力。
OpenAI新聞稿稱(chēng),“我們跨文本、視覺(jué)和音頻端到端地訓(xùn)練了一個(gè)新模型,這意味著所有輸入和輸出都由同一神經(jīng)網(wǎng)絡(luò)處理。由于GPT-4o是我們第一個(gè)結(jié)合所有這些模式的模型,因此我們?nèi)匀恢皇菧\嘗輒止地探索該模型的功能及其局限性。”
性能方面,根據(jù)傳統(tǒng)基準(zhǔn)測(cè)試,GPT-4o在文本、推理和編碼等方面實(shí)現(xiàn)了與GPT-4 Turbo級(jí)別相當(dāng)?shù)男阅埽瑫r(shí)在多語(yǔ)言、音頻和視覺(jué)功能方面的表現(xiàn)分?jǐn)?shù)也創(chuàng)下了新高。
OpenAI表示,“我們開(kāi)始向ChatGPT Plus和Team用戶推出GPT-4o,并且很快就會(huì)向企業(yè)用戶推出。我們今天還開(kāi)始推出ChatGPT Free,但有使用限額。 Plus用戶的消息限額將比免費(fèi)用戶高出5倍,團(tuán)隊(duì)和企業(yè)用戶的限額會(huì)再高一些。”
新聞稿稱(chēng),即使是ChatGPT Free(免費(fèi))用戶也可以有機(jī)會(huì)體驗(yàn)GPT-4o,但當(dāng)達(dá)到限額時(shí),ChatGPT將自動(dòng)切換到GPT-3.5。
另外,OpenAI還推出適用于macOS的ChatGPT桌面應(yīng)用程序,通過(guò)簡(jiǎn)單的鍵盤(pán)快捷鍵(Option + Space)可以立即向ChatGPT提問(wèn),還可以直接在應(yīng)用程序中截取屏幕截圖與機(jī)器人進(jìn)行討論。
在直播活動(dòng)尾聲時(shí),OpenAI首席技術(shù)官M(fèi)ira Murati說(shuō)道,“感謝杰出的OpenAI團(tuán)隊(duì),也感謝Jensen(黃仁勛)和英偉達(dá)團(tuán)隊(duì)為我們帶來(lái)了最先進(jìn)的GPU,使今天的演示成為可能。”
(財(cái)聯(lián)社 趙昊 )