DeepSeek更新新模型 可一次性處理超長文本

  新浪科技訊 2月11日晚間消息,更新多名用戶反饋,新模型DeepSeek在網(wǎng)頁端和APP端進行了版本更新,次性處理超長支持最高1M(百萬)Token的文本上下文長度。而去年8月發(fā)布的更新DeepSeekV3.1上下文長度拓展至128K。

  實測中發(fā)現(xiàn),新模型DeepSeek在問答中稱自身支持上下文1M,次性處理超長可以一次性處理超長文本。文本提交超過24萬個token的更新《簡愛》小說文檔,DeepSeek可以支持識別文檔內(nèi)容。新模型

  之前曾有知情人士稱,次性處理超長DeepSeek 春節(jié)更可能推出的文本是針對V3系列模型的小幅更新。但該人士同時透露,更新真正的新模型重頭戲仍在路上。DeepSeek下一代旗艦?zāi)P皖A(yù)計將是次性處理超長一款萬億參數(shù)級別的基礎(chǔ)模型,正因規(guī)模大幅躍升,訓(xùn)練速度明顯放緩,導(dǎo)致發(fā)布進程有所延后。

海量資訊、精準(zhǔn)解讀,盡在新浪財經(jīng)APP

責(zé)任編輯:何俊熹

百科
上一篇:DeepSeek更新新模型 可一次性處理超長文本
下一篇:騰勢汽車與博鰲亞洲論壇達(dá)成戰(zhàn)略合作 為全球嘉賓提供綠色豪華出行服務(wù)