新浪科技訊 2月11日晚間消息,更新多名用戶反饋,新模型DeepSeek在網(wǎng)頁端和APP端進(jìn)行了版本更新,次性處理超長支持最高1M(百萬)Token的文本上下文長度。而去年8月發(fā)布的更新DeepSeekV3.1上下文長度拓展至128K。
實(shí)測中發(fā)現(xiàn),新模型DeepSeek在問答中稱自身支持上下文1M,次性處理超長可以一次性處理超長文本。文本提交超過24萬個(gè)token的更新《簡愛》小說文檔,DeepSeek可以支持識別文檔內(nèi)容。新模型
之前曾有知情人士稱,次性處理超長DeepSeek 春節(jié)更可能推出的文本是針對V3系列模型的小幅更新。但該人士同時(shí)透露,更新真正的新模型重頭戲仍在路上。DeepSeek下一代旗艦?zāi)P皖A(yù)計(jì)將是次性處理超長一款萬億參數(shù)級別的基礎(chǔ)模型,正因規(guī)模大幅躍升,訓(xùn)練速度明顯放緩,導(dǎo)致發(fā)布進(jìn)程有所延后。
海量資訊、精準(zhǔn)解讀,盡在新浪財(cái)經(jīng)APP 責(zé)任編輯:何俊熹