通信世界網(wǎng)消息(CWW)1月17日,商湯科技與上海AI實(shí)驗(yàn)室聯(lián)合香港中文大學(xué)和復(fù)旦大學(xué)正式發(fā)布新一代大語言模型書?·浦語2.0(InternLM2)。InternLM2 的核心理念在于回歸語言建模的本質(zhì),致力于通過提高語料質(zhì)量及信息密度,實(shí)現(xiàn)模型基座語言建模能力質(zhì)的提升,進(jìn)而在數(shù)理、代碼、對話、創(chuàng)作等各方面都取得長足進(jìn)步,綜合性能達(dá)到開源模型的領(lǐng)先水平。
InternLM2是在2.6萬億token的高質(zhì)量語料上訓(xùn)練得到的。相比于初代InternLM,InternLM2的各項(xiàng)能力獲得全面進(jìn)步,在推理、數(shù)學(xué)、代碼等方面的能力提升尤為顯著,綜合能力領(lǐng)先于同量級開源模型。根據(jù)大語言模型的應(yīng)用方式和用戶關(guān)注的重點(diǎn)領(lǐng)域,研究人員定義了語言、知識、推理、數(shù)學(xué)、代碼、考試等六個能力維度,在55個主流評測集上對多個同量級模型的表現(xiàn)進(jìn)行了綜合評測。
評測結(jié)果顯示,InternLM2的輕量級及中量級版本性能在同量級模型中表現(xiàn)優(yōu)異。沿襲第一代書生·浦語(InternLM)設(shè)定,InternLM2包含7B及20B兩種參數(shù)規(guī)格及基座、對話等版本,滿足不同復(fù)雜應(yīng)用場景需求,繼續(xù)開源,提供免費(fèi)商用授權(quán)。
InternLM2的輕量級及中量級版本性能在同量級開源模型中表現(xiàn)優(yōu)異
- QQ:61149512