(CWW)近日,商湯科技、上海AI實(shí)驗(yàn)室聯(lián)合香港中文大學(xué)、復(fù)旦大學(xué)及上海交通大學(xué)發(fā)布千億級(jí)參數(shù)大語言模型“書生·浦語”(InternLM)。
“書生·浦語”具有1040億參數(shù),是在包含1.6萬億token的多語種高質(zhì)量數(shù)據(jù)集上訓(xùn)練而成。
全面評(píng)測(cè)結(jié)果顯示,“書生·浦語”不僅在知識(shí)掌握、閱讀理解、數(shù)學(xué)推理、多語翻譯等多個(gè)測(cè)試任務(wù)上表現(xiàn)優(yōu)秀,而且具備很強(qiáng)的綜合能力,因而在綜合性考試中表現(xiàn)突出,在多項(xiàng)中文考試中取得超越ChatGPT的成績(jī),其中就包括中國(guó)高考各個(gè)科目的數(shù)據(jù)集(GaoKao)。
(資料圖)
“書生·浦語”聯(lián)合團(tuán)隊(duì)選取了20余項(xiàng)評(píng)測(cè)對(duì)其進(jìn)行檢驗(yàn),其中包含全球最具影響力的四個(gè)綜合性考試評(píng)測(cè)集:
由伯克利加州大學(xué)等高校構(gòu)建的多任務(wù)考試評(píng)測(cè)集MMLU;
微軟研究院推出的學(xué)科考試評(píng)測(cè)集AGIEval(含中國(guó)高考、司法考試及美國(guó)SAT、LSAT、GRE和GMAT等);
由上海交通大學(xué)、清華大學(xué)和愛丁堡大學(xué)合作構(gòu)建的面向中文語言模型的綜合性考試評(píng)測(cè)集C-Eval;
以及由復(fù)旦大學(xué)研究團(tuán)隊(duì)構(gòu)建的高考題目評(píng)測(cè)集Gaokao;
實(shí)驗(yàn)室聯(lián)合團(tuán)隊(duì)對(duì)“書生·浦語”、GLM-130B、LLaMA-65B、ChatGPT和 GPT-4進(jìn)行了全面測(cè)試,針對(duì)上述四個(gè)評(píng)測(cè)集的成績(jī)對(duì)比如下(滿分100分)。
“書生·浦語”不僅顯著超越了GLM-130B和LLaMA-65B等學(xué)術(shù)開源模型,還在AGIEval、C-Eval,以及Gaokao等多個(gè)綜合性考試中領(lǐng)先于ChatGPT;在以美國(guó)考試為主的MMLU上實(shí)現(xiàn)和ChatGPT持平。這些綜合性考試的成績(jī)反映出“書生·浦語”扎實(shí)的知識(shí)掌握程度和優(yōu)秀的綜合能力。
雖然 “書生·浦語”在考試評(píng)測(cè)上取得優(yōu)秀成績(jī),但在測(cè)評(píng)中也可以看到,大語言模型仍然存在不少能力局限性。“書生·浦語” 受限于2K的語境窗口長(zhǎng)度(GPT-4的語境窗口長(zhǎng)度為32K),在長(zhǎng)文理解、復(fù)雜推理、撰寫代碼以及數(shù)理邏輯演繹等方面還存在明顯局限。另外,在實(shí)際對(duì)話中,大語言模型還普遍存在幻覺、概念混淆等問題。這些局限使得大語言模型在開放場(chǎng)景中的使用還有很長(zhǎng)的路要走。
關(guān)鍵詞: