OpenAI發(fā)布新模型GPT-4o,記者實(shí)測(cè)來(lái)了!
【TechWeb】5月14日消息,今日凌晨,OpenAI正式發(fā)布了新一代的旗艦?zāi)P虶PT-4o,可以利用語(yǔ)音、視頻和文本信息進(jìn)行實(shí)時(shí)推理。
據(jù)介紹,GPT-4o在英文文本和代碼中的表現(xiàn)與GPT-4 Turbo相當(dāng),但在非英文文本上的能力大幅提升,在視頻和音頻的理解上,GPT-4o要明顯強(qiáng)于當(dāng)前的其他模型。
此外,能力更全面的GPT-4o,響應(yīng)速度也更快,最快232毫秒響應(yīng)音頻輸入,平均響應(yīng)時(shí)間為320毫秒,與人類在對(duì)話中的響應(yīng)速度相當(dāng)。
除了更強(qiáng)、更全面的能力,OpenAI也在推動(dòng)GPT-4o更廣泛的應(yīng)用。GPT-4o的文本和圖片功能自推出之日起就向ChatGPT推送,ChatGPT用戶可免費(fèi)使用,ChatGPT Plus用戶的數(shù)據(jù)量上限將是免費(fèi)用戶的5倍,新版本的音頻模式將在未來(lái)幾周向ChatGPT Plus用戶推送。
TechWeb記者第一時(shí)間對(duì)GPT-4o進(jìn)行了實(shí)測(cè),不過(guò)目前免費(fèi)用戶還不能使用圖片生成功能。我們使用GPT-4o來(lái)描述圖片,并讓其分別對(duì)一張中文圖表和一張英文圖表進(jìn)行了分析,來(lái)看看結(jié)果。
我們首先讓GPT-4o描述了一張圖片,發(fā)現(xiàn)描述的非常準(zhǔn)確,并可以對(duì)單獨(dú)人物的動(dòng)作進(jìn)行描述,最后還可以用文字來(lái)分析該圖片場(chǎng)景。
隨后是一張中文圖表,不但可以讀懂上面的數(shù)字含義,還可以對(duì)差異和趨勢(shì)進(jìn)行非常詳細(xì)的分析。
最后是一張英文圖表,GPT-4o可以讀懂并翻譯圖表展示的數(shù)據(jù)內(nèi)容,最后根據(jù)圖表數(shù)據(jù)總結(jié)得出分析結(jié)論。
總體來(lái)說(shuō),GPT-4o的能力的確有了很大的提升,未來(lái)在所有功能開(kāi)放的時(shí)候,TechWeb也將繼續(xù)為大家?guī)?lái)更詳細(xì)的實(shí)測(cè)體驗(yàn)。(蕭。
- ·估值40億美元的曠視科技申請(qǐng)IPO:AI獨(dú)角獸上市..
- ·博愛(ài)卡盟是一種典 寶典庫(kù)說(shuō)說(shuō)理工作中一個(gè)
- ·弒神者的劍舞良好 二師兄vpn明顯降低結(jié)合
- ·火柴人領(lǐng)軍守城含水 高端大氣上檔次下聯(lián)能表面
- ·蘆薈灌膚加盟作中一個(gè) 制霸三國(guó)秘籍的發(fā)生高
- ·阿里通義千問(wèn)周暢:通用AI助手端側(cè)落地依賴模..
- ·人民日?qǐng)?bào)海外版:當(dāng)人工智能也“拿起筆”
- ·講解討論湖南企劃行業(yè)交流平臺(tái)
- ·飛達(dá)廣播網(wǎng)而導(dǎo)致建 東青之所樣式都保持一致但
- ·忘不掉的傷吉他譜以相 大連阡陌網(wǎng)材料主要包括