中新網(wǎng)5月14日電(中新財經(jīng) 吳家駒)不是GPT-5,而是GPT-4o。
北京時間5月14日,研發(fā)ChatGPT的OpenAI公司,推出了具備“聽、看、說”能力的GPT-4o。
OpenAI網(wǎng)站稱,GPT-4o的“o”代表“omni”。在英語中“omni”常被用作詞根,用來表示“全部”或“所有”的概念。
該公司首席執(zhí)行官山姆·奧特曼(Sam Altman)此前已預(yù)告,最新發(fā)布的產(chǎn)品“不是GPT-5,不是搜索引擎,但我們一直在努力開發(fā)一些我們認(rèn)為人們會喜歡的新東西”。
據(jù)介紹,GPT-4o可以實(shí)時對音頻、視覺和文本進(jìn)行推理,接受文本、音頻和圖像的任意組合輸入,并生成文本、音頻和圖像的任意組合輸出。
OpenAI稱,GPT-4o可以在短至232毫秒的時間內(nèi)對音頻輸入做出反應(yīng),平均反應(yīng)時間為320毫秒,這與人類在對話中的反應(yīng)時間相近。此外,它在英語和代碼文本方面的性能與GPT-4 Turbo相當(dāng),在非英語語言文本方面也有顯著提高。同時在API(應(yīng)用程序接口)方面,速度更快,成本也降低了50%。
現(xiàn)場,OpenAI展示了GPT-4o的多個應(yīng)用場景。
例如,在一個演示中,OpenAI前沿研究負(fù)責(zé)人馬克·陳(Mark Chen)通過手機(jī)與ChatGPT進(jìn)行對話。Chen和ChatGPT說,他正在進(jìn)行演示有些緊張,于是ChatGPT就“像朋友一樣”,對他進(jìn)行了安慰。同時,ChatGPT還能從Chen急促的喘氣聲中,聽出他的緊張,然后對他說“慢一點(diǎn)。Mark,你不是吸塵器。吸氣,然后數(shù)到四!
在另一個演示中,OpenAI后訓(xùn)練團(tuán)隊負(fù)責(zé)人巴雷特·佐夫(Barret Zoph)把自己的臉對著鏡頭,讓GPT-4o看看自己的情緒如何。在演示的過程中,Zoph先打開了手機(jī)的后置攝像頭,拍到了木質(zhì)桌面,于是ChatGPT說,“我看到的好像是木質(zhì)表面!倍孋hatGPT再試一次后,ChatGPT對Zoph說,“你看起來很開心,笑容燦爛,也許還有一絲興奮!
同時,OpenAI還在官網(wǎng)發(fā)布了一系列演示視頻:GPT-4o可以幫助學(xué)習(xí)數(shù)學(xué)、學(xué)習(xí)西班牙語、準(zhǔn)備面試,可以通過畫面判斷出你正在過生日,然后給你唱生日快樂歌,可以根據(jù)要求唱不同風(fēng)格的催眠曲,甚至還可以當(dāng)“石頭剪刀布”的裁判。而在這些視頻中,GPT-4o與演示者的對話流暢,說話語氣就“像真人一樣”。
有網(wǎng)友表示,根據(jù)目前展示的視頻來看,GPT-4o在語音交互體驗上提升了不少。有網(wǎng)友認(rèn)為,GPT-4o對算力的需求更大了。也有網(wǎng)友提出,既然GPT-4o具備了“視覺”,它是否可以代替盲人看世界。
OpenAI稱,通過GPT-4o,公司跨文本、視覺和音頻端到端地訓(xùn)練了一個新模型,這意味著所有的輸入和輸出都由同一個神經(jīng)網(wǎng)絡(luò)處理。由于GPT-4o是OpenAI第一個結(jié)合了所有這些模式的模型,因此公司在探索該模型的功能及其局限性方面仍處于起步階段。
對此,山姆·奧特曼在社交媒體表示,最初的ChatGPT展示了語言界面的雛形,而新的ChatGPT則給人截然不同的感覺。它快速、智能、有趣、自然,而且“樂于助人”。“隨著我們增加(可選的)個性化功能、訪問信息的功能、代表你采取行動的功能等,我真的看到了一個令人興奮的未來,我們可以用電腦做比以往更多的事情!(完)
責(zé)任編輯:王雨蜻