咨詢服務(wù)熱線:400-099-8848
OpenAI發(fā)布GPT-5.3-Codex-Spark |
| 發(fā)布時(shí)間:2026-02-14 文章來源:本站 瀏覽次數(shù):22 |
OpenAI正式發(fā)布新一代代碼模型GPT-5.3-Codex-Spark,并宣布該模型由Cerebras供給算力支撐,現(xiàn)已以研究預(yù)覽方式上線。這是OpenAI與Cerebras合作的首個(gè)揭露效果,標(biāo)志著晶圓級(jí)算力架構(gòu)在干流AI編程場景中的首次規(guī)模化落地。 Codex-Spark定坐落“實(shí)時(shí)協(xié)作式軟件開發(fā)”。在當(dāng)時(shí)Agent化編程趨勢(shì)下,AI可以接連數(shù)小時(shí)甚至數(shù)天自主執(zhí)行使命,但長等待時(shí)刻與反應(yīng)推遲,也或許削弱開發(fā)者的參與感與控制力。Codex-Spark強(qiáng)調(diào)“呼應(yīng)速度與智能平等重要”,支撐開發(fā)者在實(shí)時(shí)交互中持續(xù)注入規(guī)劃判斷與方向決議計(jì)劃。 在性能層面,Codex-Spark運(yùn)轉(zhuǎn)于Cerebras Wafer-Scale Engine架構(gòu)之上,推理速度超過每秒1000 tokens,實(shí)現(xiàn)近乎即時(shí)的代碼反應(yīng)。在SWE-Bench Pro與Terminal-Bench 2.0等Agent工程基準(zhǔn)測(cè)試中,該模型在完成時(shí)刻明顯縮短的同時(shí),才能表現(xiàn)優(yōu)于GPT-5.1-Codex-mini。 模型才能側(cè)重于精準(zhǔn)代碼編輯、計(jì)劃修訂與上下文理解,適用于代碼庫問答、界面布局調(diào)整、樣式優(yōu)化與交互測(cè)試等高頻開發(fā)使命。比較長時(shí)刻自主運(yùn)轉(zhuǎn)的Agent形式,Codex-Spark更強(qiáng)調(diào)“人在回路中”的協(xié)同開發(fā)體會(huì)。 OpenAI工業(yè)計(jì)算負(fù)責(zé)人Sachin Katti表示,引進(jìn)晶圓級(jí)算力為低推遲場景供給了新的渠道才能,使Codex在對(duì)推遲敏感的工作流中保持高度呼應(yīng)性。團(tuán)隊(duì)將基于開發(fā)者反應(yīng)持續(xù)優(yōu)化多算力體系的協(xié)同調(diào)度才能。 從硬件層面看,Cerebras的Wafer-Scale Engine具有業(yè)界大的片上內(nèi)存容量,可在單用戶場景下實(shí)現(xiàn)數(shù)千tokens每秒的高速推理。該架構(gòu)可橫向擴(kuò)展至數(shù)千套系統(tǒng),構(gòu)成多TB級(jí)高速內(nèi)存池,為萬億參數(shù)級(jí)模型的訓(xùn)練與推理供給支撐。OpenAI預(yù)計(jì)將在2026年將該超高速推理才能擴(kuò)展至更大規(guī)模的前沿模型。 現(xiàn)在,Codex-Spark已向ChatGPT Pro用戶敞開,可通過Codex使用、CLI及VS Code擴(kuò)展使用;API接口將逐漸向部分規(guī)劃合作伙伴敞開。隨著高性能推理基礎(chǔ)設(shè)施的持續(xù)升級(jí),實(shí)時(shí)AI編程正邁入更低推遲、更強(qiáng)可控的新階段。 |
|