Qwen2-72B:平衡性能與人類價值的語言模型

介紹

Qwen2-72B 是由 Qwen AI 開發的一款大型語言模型,旨在取得更好的性能,同時與人類價值觀高度對齊。這款模型的關鍵亮點如下:

Qwen2-72B 的主要特色

模型規模最大: Qwen2-72B 是 Qwen2 系列中規模最大的一款模型,擁有 72.71 億個參數(70.21 億非嵌入參數)。
長上下文支持: Qwen2-72B-Instruct 支持最多 128K 的上下文長度,能夠處理大規模的輸入。
優越性能: 與前代 Qwen1.5-110B 模型相比,Qwen2-72B 儘管參數較少,卻表現更為優越。
出色指令性能: Qwen2-72B-Instruct 在多項基準測試中顯著超越 Qwen1.5-72B-Chat,並且性能接近 Llama-3-70B-Instruct。
多語言支持: Qwen2-72B-Instruct 除了英文和中文外,還支持另外 27 種語言。

開發背景

Qwen2-72B 是通過大規模預訓練和後期訓練開發而成,這些訓練進一步增強了其智能水平,並使其輸出與人類價值觀更加對齊。該模型目前在 Hugging Face 平台上可用。

Qwen2-72B 在程式碼任務中的表現

Qwen2-72B 在編碼任務中的表現有了顯著提高,以下是一些關鍵亮點:

程式碼執行結果

Qwen2-72B 在程式碼執行的準確率達到 72.7%,顯著高於其他模型,包括 GPT-4 (82.8%)、GPT-3.5 (74.1%) 和 LLaMA2-13B-Chat (48.3%)。

程式碼可執行率

Qwen2-72B 的程式碼可執行率為 41.7%,高於其他模型,表明它能夠正確執行更多的程式碼。

一般性能

Qwen2-72B 在一般編碼任務中的準確率為 82.8%,可執行率也達到 82.8%,全面超越其他模型。

與其他模型的比較

Qwen2-72B 在所有編碼基準測試中均超越 Qwen1.5-72B-Chat,並且其性能接近 Llama-3-70B-Instruct。

長上下文理解能力

Qwen2-72B 能夠處理長達 128K tokens 的上下文,這使其能夠有效理解和執行複雜的程式碼。

結語

Qwen2-72B 在編碼任務中的改進,展示了其增強的能力,使其在這一領域表現出色。這些特性使得 Qwen2-72B 成為一款性能強勁的語言模型。