亚洲熟妇av一区二区三区,亚洲av中文无码乱人伦在线视色,亚洲人成网站色www,亚洲欧美日韩国产综合在线一区 ,亚洲av之男人的天堂网站

谷歌發(fā)布Gemini 2.5 Pro “I/O”模型

分享至

當(dāng)?shù)貢r(shí)間5月6日,谷歌DeepMind人工智能研究團(tuán)隊(duì)發(fā)布了Gemini 2.5 Pro “I/O” ,這是今年3月發(fā)布的多模態(tài)大語言模型Gemini 2.5 Pro的升級(jí)版本。在AI排行榜LMArena上,該模型在多個(gè)指標(biāo)上登頂。目前該模型已向Google AI Studio的獨(dú)立開發(fā)者、Vertex AI云平臺(tái)的企業(yè)用戶以及Gemini應(yīng)用的普通用戶開放。

OpenAI回應(yīng)GPT-4o更新后個(gè)性過于諂媚:已回滾到老版本

分享至

4月30日消息,OpenAI首席執(zhí)行官山姆·奧特曼在社交平臺(tái)表示,昨晚開始回滾GPT-4o的最新更新,現(xiàn)在免費(fèi)版的回滾已100%完成,付費(fèi)版完成后會(huì)再次進(jìn)行更新,預(yù)計(jì)晚些時(shí)候?qū)δP蛡€(gè)性進(jìn)行額外的修復(fù),并將在未來幾天分享更多信息。此前,奧特曼發(fā)文稱,“GPT-4o的最近幾次更新使其個(gè)性變得過于諂媚和煩人(盡管其中也有一些非常好的部分),我們正在盡快修復(fù)?!?

OpenAI升級(jí)GPT-4o模型,提升智能和個(gè)性

分享至

當(dāng)?shù)貢r(shí)間4月25日,OpenAI首席執(zhí)行官山姆·奧特曼在社交媒體上表示,已經(jīng)升級(jí)了GPT-4o模型,目前在智能和個(gè)性兩方面都有所提升。

OpenAI發(fā)布新款模型o3和o4-mini

分享至

4月17日凌晨1點(diǎn),OpenAI進(jìn)行了技術(shù)直播,發(fā)布了其最強(qiáng)、最智能模型o4-mini和滿血版o3。o4-mini和o3是兩款多模態(tài)模型,能同時(shí)處理文本、圖像和音頻,并且能作為Agent智能體自動(dòng)調(diào)用網(wǎng)絡(luò)搜索、圖像生成、代碼解析等工具以及深度思考模式(思維鏈中可以思考圖像)。根據(jù)OpenAI公布的測試數(shù)據(jù)顯示,o4-mini在AIME 2024和2025中,分別達(dá)到了93.4%和92.7%,比滿血版o3還強(qiáng),成為目前準(zhǔn)確率最高的模型;在Codeforces測試中達(dá)到了2700分,成為全球前200名最強(qiáng)程序員。

山姆·奧特曼:OpenAI將在數(shù)周內(nèi)發(fā)布o(jì)3、o4-mini

分享至

4月4日,OpenAI首席執(zhí)行官山姆·奧特曼在社交平臺(tái)X上發(fā)文稱,將在數(shù)周內(nèi)發(fā)布o(jì)3、o4-mini,未來幾月內(nèi)發(fā)布GPT-5。

OpenAI推出GPT-4o圖像生成功能

分享至

當(dāng)?shù)貢r(shí)間3月25日,美國開放人工智能研究中心(OpenAI)宣布推出4o圖像生成功能,“將迄今最先進(jìn)的圖像生成器集成至GPT-4o”。即日起,所有Plus、Pro、Team及免費(fèi)用戶將陸續(xù)在ChatGPT和Sora中體驗(yàn)該功能,企業(yè)版與教育版即將接入,Sora平臺(tái)同步啟用。開發(fā)者即將通過API調(diào)用GPT-4o圖像生成功能,接口權(quán)限將于未來數(shù)周內(nèi)開放。據(jù)介紹,GPT-4o圖像生成功能可精準(zhǔn)文本渲染、嚴(yán)格遵循指令提示、深度調(diào)用4o知識(shí)庫及對(duì)話上下文——包括對(duì)上傳圖像進(jìn)行二次創(chuàng)作或?qū)⑵滢D(zhuǎn)化為視覺靈感。

OpenAI:大多數(shù)用戶GPT-4o API問題已解決

分享至

北京時(shí)間3月18日早間,OpenAI發(fā)布事故報(bào)告更新稱,GPT-4o大多數(shù)用戶的API問題已解決,仍在持續(xù)關(guān)注剩余少量客戶的情況。數(shù)日前,OpenAI發(fā)布報(bào)告指出,用戶可能通過API使用GPT-4o時(shí)遭遇響應(yīng)性能下降問題。

研究機(jī)構(gòu)稱DeepSeek在1月底的用戶量就超越了谷歌Gemini

分享至

2月7日,據(jù)研究公司 SimilarWeb估計(jì),在短短一周內(nèi),DeepSeek網(wǎng)站的用戶數(shù)量就超過了谷歌的 Gemini 聊天AI(后者已經(jīng)存在了近兩年)。1月31日,DeepSeek.com在美國的日訪問量為240萬次,比Gemini網(wǎng)站(150萬次)高出 60%。OpenAI 的ChatGPT仍然是其八倍,當(dāng)天的日訪問量為1930萬次。(DeepSeek 在1月28日的訪問量達(dá)到490萬次的峰值。)DeepSeek和Gemini之間的差距在美國以外更大:SimilarWeb的數(shù)據(jù)顯示,1月31日,這個(gè)中國聊天AI在全球(基本不包括中國)的訪問量為2920萬次,是Gemini的三倍多。

谷歌Gemini 2.0現(xiàn)已面向所有人開放

分享至

2月6日消息,谷歌周三向所有人發(fā)布了 Gemini 2.0——號(hào)稱迄今為止功能最強(qiáng)大的人工智能模型套件。去年 12 月,該公司向開發(fā)人員和受信任的測試人員開放了訪問權(quán)限,并將一些功能整合到谷歌產(chǎn)品中,但谷歌表示,這是一次全面發(fā)布。該模型套件包括 2.0 Flash,被稱為主力模型,最適合大規(guī)模高容量、高頻率任務(wù),以及 2.0 Pro Experimental 用于編碼性能,以及 2.0 Flash-Lite,該公司稱其為迄今為止最具成本效益的模型。

OpenAI:GPT-4o及4o-mini模型性能下降,正在調(diào)查

分享至

北京時(shí)間1月20日11時(shí)54分,OpenAI發(fā)布事故報(bào)告指出,當(dāng)前遭遇GPT-4o和4o-mini模型性能下降問題,目前正在進(jìn)行調(diào)查,并將盡快發(fā)布最新消息。

微軟開源最強(qiáng)小模型Phi-4,超GPT-4o、可商用

分享至

1月9日消息,今天凌晨,微軟研究院開源了目前最強(qiáng)小參數(shù)模型——phi-4。去年12月12日,微軟首次展示了phi-4,參數(shù)只有140億性能卻極強(qiáng),在GPQA研究生水平、MATH數(shù)學(xué)基準(zhǔn)測試中,超過了OpenAI的GPT-4o,也超過了同類頂級(jí)開源模型Qwen 2.5 -14B和Llama-3.3-70B。在美國數(shù)學(xué)競賽AMC的測試中phi-4更是達(dá)到了91.8分,超過了Gemini Pro 1.5、GPT-4o、Claude 3.5 Sonnet、Qwen 2.5等知名開閉源模型,甚至整體性能可以與4050億參數(shù)的Llama-3.1媲美。

2025年OpenAI新產(chǎn)品:AGI、智能體、GPT-4o升級(jí)版等

分享至

12月31日,山姆·奧特曼公布了2025年OpenAI即將發(fā)布的技術(shù)產(chǎn)品,包括通用人工智能AGI、智能體更好的GPT-4o升級(jí)版、更好的記憶存儲(chǔ)、更好的上下文窗口成人模式、深度研究特色功能更好的Sora更好的個(gè)性化定制等。

亮道智能推出Flash純固態(tài)激光雷達(dá)產(chǎn)品Gen2 Mini

分享至

近日,亮道智能正式面向全球市場推出Flash純固態(tài)激光雷達(dá)產(chǎn)品——Gen2 Mini。據(jù)介紹,Gen2 Mini實(shí)現(xiàn)了體積上的大幅縮減,面向無人機(jī)、人形機(jī)器人、智慧安防等多領(lǐng)域的客戶,提供快速集成部署方案,提升智能化設(shè)備整體的緊湊性。

谷歌推出最新AI模型Gemini 2.0,開放Deep Research新功能

分享至

當(dāng)?shù)貢r(shí)間12月11日,谷歌宣布推出最新AI模型Gemini 2.0,稱這是其迄今為止最強(qiáng)大的模型。即日起,谷歌將2.0開放給開發(fā)者以及受信任的測試人員,并正在積極推進(jìn)將其整合到公司的產(chǎn)品中,率先從Gemini和Search開始。即日起,Gemini 2.0 Flash體驗(yàn)版模型將對(duì)所有Gemini用戶開放。同時(shí),谷歌還推出了Deep Research的新功能,它運(yùn)用高級(jí)推理和長上下文處理能力,承擔(dān)研究助手的角色,幫助用戶探索復(fù)雜的主題并撰寫報(bào)告。該功能自即日起對(duì)Gemini Advanced用戶開放。

MiniMax產(chǎn)品負(fù)責(zé)人張前川近日離職

分享至

9月13日消息,從多名獨(dú)立信源處獲悉,中國大模型獨(dú)角獸MiniMax產(chǎn)品負(fù)責(zé)人、前今日頭條用戶產(chǎn)品負(fù)責(zé)人張前川,因個(gè)人原因目前已淡出公司事務(wù),改任產(chǎn)品顧問一職。對(duì)上述消息,MiniMax回應(yīng):確認(rèn)屬實(shí),我們很感謝前川的付出和努力。張前川曾就職于百度搜索和知乎。2016年,他加入字節(jié)跳動(dòng),做過小游戲類產(chǎn)品,后任今日頭條用戶產(chǎn)品團(tuán)隊(duì)負(fù)責(zé)人。2023年初,張前川離職后,曾宣稱創(chuàng)業(yè)做AI應(yīng)用層公司,后加入MiniMax。

李飛飛團(tuán)隊(duì)提出ReKep,讓機(jī)器人具備空間智能,還能整合GPT-4o

分享至

近日,李飛飛團(tuán)隊(duì)提出了關(guān)系關(guān)鍵點(diǎn)約束(ReKep/Relational Keypoint Constraints)。簡單來說,該方法就是將任務(wù)表示成一個(gè)關(guān)系關(guān)鍵點(diǎn)序列。并且,這套框架還能很好地與 GPT-4o 等多模態(tài)大模型很好地整合。從演示視頻來看,這種方法的表現(xiàn)相當(dāng)不錯(cuò)。該團(tuán)隊(duì)也已發(fā)布相關(guān)代碼。李飛飛表示,該工作展示了視覺與機(jī)器人學(xué)習(xí)的更深層次融合。雖然論文中沒有提及李飛飛在今年 5 年初創(chuàng)立的專注空間智能的 AI 公司 World Labs,但 ReKep 顯然在空間智能方面大有潛力。

OpenAI宣布推出GPT-4o微調(diào)自定義版本

分享至

當(dāng)?shù)貢r(shí)間8月20日,美國開放人工智能研究中心(OpenAI)宣布推出GPT-4o微調(diào)自定義版本,即日起對(duì)所有付費(fèi)使用級(jí)別開發(fā)人員開放。開發(fā)人員可以使用自定義數(shù)據(jù)集對(duì)GPT-4o進(jìn)行微調(diào),從而針對(duì)特定用例以更低的成本獲得更高的性能。OpenAI表示,微調(diào)模型完全在客戶的控制之下,擁有業(yè)務(wù)數(shù)據(jù)的全部所有權(quán),可以確保數(shù)據(jù)永遠(yuǎn)不會(huì)被共享或用于訓(xùn)練其他模型。

OpenAI發(fā)布迷你AI模型GPT-4o mini

分享至

OpenAI當(dāng)?shù)貢r(shí)間7月18日推出名為“GPT-4o mini”的迷你AI模型,該模型是GPT-4o的一個(gè)分支。OpenAI計(jì)劃稍后將圖像、視頻和音頻集成到其中。

OpenAI山姆·奧特曼:新款語音模型GPT-4o尚未發(fā)布

分享至

OpenAI聯(lián)合創(chuàng)始人兼首席執(zhí)行官山姆·奧特曼當(dāng)?shù)貢r(shí)間5月15日就GPT-4o說明稱,盡管GPT-4o的文本模式已經(jīng)發(fā)布,但語音模式還未發(fā)布。

OpenAI用26分鐘再次震撼世界,新模型GPT-4o語音水平接近人類

分享至

北京時(shí)間5月14日凌晨,OpenAI再迎重磅更新,雖然不是AI搜索,也不是GPT-5,而是發(fā)布了新旗艦?zāi)P虶PT-4o,但也足以讓業(yè)內(nèi)震撼。 在此次OpenAI 僅有26分鐘的春季發(fā)布會(huì)中,OpenAI首席技術(shù)官穆里·穆拉提(Muri Murati)宣布推出名為GPT-4o的新旗艦生成式AI模型,其集文本音頻視覺于一身,能力全新升級(jí)。 此前不少爆料提到,OpenAI將推出AI搜索,與谷歌搜索競爭,從而增強(qiáng)ChatGPT的功能并開拓新市場,并稱這款產(chǎn)品將在谷歌本周的開發(fā)者大會(huì)前推出。 不過,OpenAI CEO山姆·奧特曼對(duì)此否認(rèn),其表示,“不是 GPT-5,也不是搜索引擎,但我們一直在努力開發(fā)一些我們認(rèn)為人們會(huì)喜歡的新東西!對(duì)我來說就像魔法一樣。” GPT-4o顯然就是奧特曼所說的“像魔法一樣”的新東西。GPT-4o中的o就是Omni,其是拉丁語詞根,意思是全面、全能,奧特曼稱其“最好的模型”,并免費(fèi)開放。

點(diǎn)擊加載更多