一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI發(fā)布GPT-4o模型,支持文本、圖像、音頻信息,速度提升一倍,價(jià)格不變

微云疏影 ? 來源:綜合整理 ? 作者:綜合整理 ? 2024-05-14 17:12 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

據(jù)悉,OpenAI近日凌晨正式推出最新款旗艦級(jí)人工智能模型GPT-4o。相較前代產(chǎn)品,GPT-4o表現(xiàn)出多重優(yōu)勢:速度翻倍,價(jià)格下調(diào)50%(單次處理百萬token的成本僅需7美元),且具備每分鐘處理千萬token數(shù)據(jù)的能力。

此外,該模型還具備128K的上下文記憶能力,知識(shí)截止日期設(shè)定為2023年10月。微軟方面也宣布,已通過Azure OpenAI服務(wù)提供GPT-4o的預(yù)覽版。

值得關(guān)注的是,GPT-4o不僅能對(duì)文本、圖像進(jìn)行無縫處理,還能處理音頻信息,為用戶帶來更豐富、沉浸式的交互體驗(yàn)。然而,據(jù)IT之家報(bào)道,目前GPT-4o僅支持文本和圖像,未來將逐步擴(kuò)展至音頻和視頻領(lǐng)域。

目前,美國部分地區(qū)的Azure OpenAI用戶可通過Azure OpenAI Studio的預(yù)覽功能搶先體驗(yàn)GPT-4o的強(qiáng)大性能。微軟計(jì)劃在本月底舉行的Build 2024大會(huì)上公布更多關(guān)于GPT-4o及Azure人工智能的新動(dòng)態(tài)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1806

    文章

    49028

    瀏覽量

    249523
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3521

    瀏覽量

    50426
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1210

    瀏覽量

    8921
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    OpenAI發(fā)布o1大模型,數(shù)理化水平比肩人類博士,國產(chǎn)云端推理芯片的新藍(lán)海?

    時(shí)間思考后再做出回答,而傳統(tǒng)大模型是直接給出回答,但往往這個(gè)回答并不準(zhǔn)確。 ? OpenAI介紹稱,OpenAI o1模型解決了很多傳統(tǒng)
    發(fā)表于 09-14 00:04 ?1821次閱讀
    <b class='flag-5'>OpenAI</b><b class='flag-5'>發(fā)布</b><b class='flag-5'>o</b>1大<b class='flag-5'>模型</b>,數(shù)理化水平比肩人類博士,國產(chǎn)云端推理芯片的新藍(lán)海?

    從性能到商業(yè),Grok3、GPT-4o、DeepSeek如何重塑AI版圖?

    2025年2月,AI領(lǐng)域仿佛上演了場激烈的“諸神之戰(zhàn)”,馬斯克旗下xAI發(fā)布的Grok3、OpenAI推出的GPT-4o以及持續(xù)憑借R1模型
    的頭像 發(fā)表于 02-19 18:14 ?1077次閱讀
    從性能到商業(yè),Grok3、<b class='flag-5'>GPT-4o</b>、DeepSeek如何重塑AI版圖?

    OpenAI宣布GPT 4o升智計(jì)劃

    透露,GPT 4o的智力水平將得到顯著提升,目標(biāo)直指o3 pro的水平。這升級(jí)不僅意味著GPT
    的頭像 發(fā)表于 02-17 14:24 ?595次閱讀

    OpenAI報(bào)告GPT-4o4o-mini模型性能下降,正緊急調(diào)查

    近日,全球領(lǐng)先的AI研究機(jī)構(gòu)OpenAI發(fā)布份事故報(bào)告,引起了業(yè)界的廣泛關(guān)注。報(bào)告中指出,OpenAI目前正面臨GPT-4o
    的頭像 發(fā)表于 01-23 10:22 ?840次閱讀

    OpenAIGPT-4o4o-mini模型性能下降,正展開調(diào)查

    近期,OpenAI發(fā)布份事故報(bào)告,指出其GPT-4o4o-mini模型遭遇了性能下降的問題
    的頭像 發(fā)表于 01-21 10:34 ?661次閱讀

    OpenAI發(fā)布o1模型API,成本大幅下降60%

    下降。 據(jù)OpenAI介紹,o1模型API的思考成本相較于預(yù)覽版本降低了60%,同時(shí)附帶了高級(jí)視覺功能,為用戶提供了更加豐富和多樣化的使用體驗(yàn)。此外,GPT-4o
    的頭像 發(fā)表于 12-19 10:31 ?694次閱讀

    解鎖 GPT-4o!2024 ChatGPT Plus 代升級(jí)全攻略(附國內(nèi)支付方法)

    更快的文本生成速度和更精準(zhǔn)的圖像理解。GPT-4o 的消息額度是免費(fèi)版的五,上下文窗口也更大。 高級(jí)語音模式 (AVM):
    的頭像 發(fā)表于 10-29 18:17 ?2499次閱讀

    Orion模型即將面世,OpenAI采用新發(fā)布模式

    據(jù)最新報(bào)道,OpenAI計(jì)劃在今年12月推出其新款前沿模型,代號(hào)為“Orion”。這款模型將采用與以往不同的發(fā)布模式,引發(fā)廣泛關(guān)注。 與GPT-4o
    的頭像 發(fā)表于 10-25 10:11 ?695次閱讀

    OpenAI解鎖GPT-4o定制功能,助力企業(yè)精準(zhǔn)優(yōu)化AI應(yīng)用

    在8月21日的最新動(dòng)態(tài)中,OpenAI 宣布了項(xiàng)革命性的新功能,正式向企業(yè)用戶開放其頂尖AI模型GPT-4o的定制能力。這舉措標(biāo)志著
    的頭像 發(fā)表于 08-21 16:06 ?759次閱讀

    OpenAI api key獲取并可調(diào)用GPT-4.0、GPT-4o、GPT-4omini

    前言 在這篇文章中,我們將詳細(xì)介紹如何申請(qǐng)OpenAIGPT-4.0 API Key。通過這個(gè)教程,你將能夠輕松獲取OpenAI API KEY并使用GPT-4.0的強(qiáng)大功能。 目錄
    的頭像 發(fā)表于 08-06 15:16 ?4557次閱讀
    <b class='flag-5'>OpenAI</b> api key獲取并可調(diào)用<b class='flag-5'>GPT</b>-4.0、<b class='flag-5'>GPT-4o</b>、<b class='flag-5'>GPT-4</b>omini

    OpenAI提前解鎖GPT-4o語音模式,引領(lǐng)對(duì)話新紀(jì)元

    OpenAI近日宣布了項(xiàng)令人振奮的消息:即日起,部分ChatGPT Plus用戶將率先體驗(yàn)到GPT-4o的語音模式,這創(chuàng)新功能標(biāo)志著自然語言處理與人工智能交互技術(shù)邁出了重要
    的頭像 發(fā)表于 08-01 18:24 ?1501次閱讀

    OpenAI向部分用戶推出GPT-4o語音模式產(chǎn)品

    近日,美國著名人工智能研發(fā)機(jī)構(gòu)OpenAI正式宣布,自本周二(2022年7月30日)起,面向部分ChatGPT Plus用戶推出嶄新的GPT-4o語音模式產(chǎn)品。   據(jù)OpenAI詳細(xì)闡述
    的頭像 發(fā)表于 07-31 14:53 ?922次閱讀

    OpenAI 推出 GPT-4o mini 取代GPT 3.5 性能超越GPT 4 而且更快 API KEY更便宜

    GPT-4. GPT-4o mini的定價(jià)為每百萬輸入標(biāo)記15美分和每百萬輸出標(biāo)記60美分,比之前的前沿模型便宜了個(gè)數(shù)量級(jí),比GPT-3.
    的頭像 發(fā)表于 07-21 10:20 ?1687次閱讀
    <b class='flag-5'>OpenAI</b> 推出 <b class='flag-5'>GPT-4o</b> mini 取代<b class='flag-5'>GPT</b> 3.5 性能超越<b class='flag-5'>GPT</b> <b class='flag-5'>4</b> 而且更快 API KEY更便宜

    OpenAI發(fā)布高性價(jià)比小型AI模型GPT-4o mini

    在人工智能領(lǐng)域持續(xù)創(chuàng)新的OpenAI,近日推出了其最新力作——“GPT-4o mini”,款旨在以親民價(jià)格提供強(qiáng)大功能的小型聊天機(jī)器人。這款產(chǎn)品的問世,標(biāo)志著
    的頭像 發(fā)表于 07-19 15:27 ?982次閱讀

    OpenAI發(fā)布最新人工智能模型——GPT-4o mini

    據(jù)國際媒體報(bào)道,OpenAI 在周四震撼發(fā)布了其最新的人工智能模型——GPT-4o mini,此舉標(biāo)志著這家領(lǐng)先的AI初創(chuàng)公司在拓寬其廣受歡迎的聊天機(jī)器人應(yīng)用領(lǐng)域方面邁出了重要
    的頭像 發(fā)表于 07-19 15:24 ?1557次閱讀