跳到正文
This is Oscar
返回

QIMMA قِمّة ⛰:以质量为先的阿拉伯语 LLM 排行榜

原文标题:QIMMA قِمّة ⛰: A Quality-First Arabic LLM Leaderboard
原文链接:https://huggingface.co/blog/tiiuae/qimma-arabic-leaderboard

image

QIMMA 在评估模型之前先对基准进行验证,确保所报告的分数能够真实反映大语言模型的阿拉伯语能力。

🏆 排行榜 · 🔧 GitHub · 📄 论文

如果你一直在关注阿拉伯语大语言模型的评估动态,你可能已经注意到一个日益突出的矛盾:基准测试和排行榜的数量正在迅速增加,但我们真的在测量我们认为自己在测量的东西吗?

我们构建了 QIMMA قِمّة(阿拉伯语中意为”顶峰”),正是为了系统性地回答这个问题。与其将现有阿拉伯语基准原样聚合后直接运行模型,我们在任何评估开始之前,先对其应用了严格的质量验证流程。我们的发现令人警醒:即便是被广泛使用、备受认可的阿拉伯语基准,也存在系统性的质量问题,这些问题会悄然侵蚀评估结果的可靠性。

本文将介绍 QIMMA 是什么、我们如何构建它、我们发现了哪些问题,以及经过数据清洗后的模型排名情况。

image

🔍 问题所在:阿拉伯语 NLP 评估碎片化且缺乏验证

阿拉伯语拥有超过 4 亿使用者,横跨多样的方言与文化背景,然而阿拉伯语 NLP 评估领域至今仍十分分散。以下几个核心痛点催生了本项工作:

翻译问题。 许多阿拉伯语基准是从英语翻译而来的。这会引入分布偏移:在英语中自然流畅的问题,在阿拉伯语中会变得生硬或与文化脱节,导致基准数据无法真实代表阿拉伯语的自然使用方式。

缺乏质量验证。 即使是原生阿拉伯语基准,往往也在没有经过严格质量检查的情况下就发布了。已有文献记录了大量成熟资源中存在的标注不一致、金答案错误、编码错误以及黄金标签中的文化偏见等问题。

可复现性不足。 评估脚本和单样本输出极少被公开发布,使得结果审计和在已有工作基础上继续研究变得困难重重。

覆盖范围碎片化。 现有排行榜仅涵盖孤立的任务和狭窄的领域,难以对模型进行全面评估。

为了说明 QIMMA 相对于现有平台的定位,请看以下对比:

排行榜开源原生阿拉伯语质量验证代码评估公开输出
OALL v1混合
OALL v2大部分
BALSAM部分50%
AraGen100%
SILMA ABL100%
ILMAAM部分100%
HELM Arabic混合
⛰ QIMMA99%

QIMMA 是唯一同时具备以下五项属性的平台:开源、以原生阿拉伯语内容为主、系统性质量验证、代码评估,以及公开发布的逐样本推理输出。

⛰ QIMMA 包含什么?

QIMMA 将来自 14 个源基准109 个子集 整合成一个统一的评估套件,包含超过 52,000 个样本,横跨 7 个领域:

领域基准任务类型
文化AraDiCE-Culture、ArabCulture、PalmXMCQ
STEMArabicMMLU、GAT、3LM STEMMCQ
法律ArabLegalQA、MizanQAMCQ、QA
医疗MedArabiQ、MedAraBenchMCQ、QA
安全AraTrustMCQ
诗歌与文学FannOrFlopQA
编程3LM HumanEval+、3LM MBPP+代码

这一设计有以下几点值得关注:

99% 原生阿拉伯语内容。 唯一的例外是代码评估,代码本身天然与语言无关。

首个包含代码评估的阿拉伯语排行榜。 QIMMA 集成了阿拉伯语适配版的 HumanEval+ 和 MBPP+,使得以阿拉伯语题目说明来评估编程能力成为可能。

领域与任务多样性。 QIMMA 评估涵盖现实世界中的多个核心能力领域,包括教育、治理、医疗健康、创意表达和软件开发。

🔬 质量验证流程

这是 QIMMA 方法论的核心。在运行任何一个模型之前,我们对每个基准中的每一个样本都应用了多阶段验证流程

第一阶段:多模型自动化评估

每个样本由两个最先进的大语言模型独立评估:

Qwen3-235B-A22B-Instruct

DeepSeek-V3-671B

我们选择了两个具备强大阿拉伯语能力但训练数据组成不同的模型,使得二者的联合判断比任何一方单独作出的判断都更为稳健。

每个模型根据一套 10 分标准 对样本打分,每项标准以二元分值(0 或 1)计:

QIMMA pipeline

若任一模型给出的分数低于 7/10,该样本即被淘汰。若两个模型均同意淘汰某样本,则立即丢弃该样本。若只有一个模型标记某样本存在问题,该样本则进入第二阶段的人工审核。

第二阶段:人工标注与审核

被标记的样本由母语为阿拉伯语的标注者审核,他们具备相应的文化与方言背景。人工标注者对以下方面作出最终裁定:

对于具有文化敏感性的内容,将综合考量多方视角,因为”正确性”在阿拉伯各地区之间确实可能存在差异。

⚠️ 我们的发现:系统性质量问题

该流程揭示了各基准中反复出现的质量问题——这不是孤立的错误,而是系统性规律,折射出原始基准构建过程中的深层缺陷。

数据统计

基准样本总数丢弃数量丢弃率
ArabicMMLU14,1634363.1%
MizanQA1,769412.3%
PalmX3,001250.8%
MedAraBench4,960330.7%
FannOrFlop6,984430.6%
ArabCulture3,48270.2%
MedArabiQ49910.2%
GAT13,9861~0.0%
3LM STEM2,6091~0.0%
AraDiCE-Culture18000.0%
ArabLegalQA79000.0%
AraTrust52200.0%

发现的问题分类

⚖️ 答案质量 金答案索引错误或不匹配、事实性错误答案、缺失答案或原始文本答案。

📄 文本与格式质量 文本损坏或无法辨认、拼写和语法错误以及重复样本。

💬 文化敏感性 对多元化社群存在刻板印象强化和单一化概括。

🤝 金答案合规性 金答案与评估协议之间的不一致。

💻 代码基准:另一种质量工作

代码基准需要不同的处理方式。我们没有丢弃样本,而是对 3LM 的 HumanEval+ 和 MBPP+ 阿拉伯语适配版中的阿拉伯语题目说明进行了优化,任务标识符、参考解答和测试套件完全保持不变。

修改率相当显著:

基准提示词总数已修改未修改修改率
3LM HumanEval+1641451988%
3LM MBPP+3783087081%

修改内容分为五个类别:

语言优化:向自然的现代标准阿拉伯语和统一的祈使语气规范化

清晰度改进:修正歧义性指令和不明确的约束条件

一致性规范化:统一数学术语、标点符号和示例格式

结构性修正:修复损坏的三引号字符串、缩进错误、文本片段乱码

语义优化:明确范围是否为闭区间,同时保留任务原始意图

⚙️ 评估设置

评估框架

QIMMA 使用 LightEvalEvalPlusFannOrFlop 作为评估框架,选择这些工具的原因在于其一致性、多语言社区的广泛采用以及可复现性。

各任务类型的评估指标

任务类型指标基准
MCQ归一化对数似然准确率AraDiCE-Culture、ArabicMMLU、ArabCulture、PalmX、3LM STEM、MedArabiQ、GAT、MedAraBench、AraTrust
多选 MCQ金选项上的概率质量MizanQA
生成式 QAF1 BERTScore(AraBERT v02)MedArabiQ、ArabLegalQA、FannOrFlop
代码Pass@13LM HumanEval+、3LM MBPP+

提示词模板

QIMMA 按题目格式统一提示词,共有六种模板类型:

QIMMA prompt templates

MCQ:通用多项选择 · MCQ-C:带上下文段落的多项选择 · MCQ-I:带特定指令的多项选择(GAT 类比/补全题) · QA:通用开放式问答 · QA-C:带上下文的问答 · QA-F:填空式问答

所有提示词均以阿拉伯语呈现。对于 MizanQA 和 ArabCulture,保留了原论文中特定于基准的系统提示词。

🏆 排行榜结果

数据截至 2026 年 4 月,涵盖评估分数最高的前 10 个模型。请访问实时排行榜查看最新排名。

排名模型平均分AraDiCE-CultureArabicMMLUArabCulturePALMX3LM STEMAraTrustMizanQAMedArabiQArabLegalQAGATMedAraBenchHumanEval+MBPP+FannOrFlop
🥇 1Qwen/Qwen3.5-397B-A17B-FP868.0682.7877.5461.7583.9188.6790.0473.3647.3054.9455.8947.9767.6876.7244.33
🥈 2Applied-Innovation-Center/Karnak66.2073.3380.9453.4981.4093.1089.0855.9255.7871.5861.0654.1933.5464.5558.91
🥉 3inceptionai/Jais-2-70B-Chat65.8178.8981.2983.2483.7387.9690.2371.7852.7969.6051.6750.8919.5143.6556.13
#4Qwen/Qwen2.5-72B-Instruct65.7577.2273.7863.8377.7787.5588.5163.4950.0670.7455.9044.1937.2072.7557.51
#5Applied-Innovation-Center/AIC-165.3773.3372.0277.5276.1188.1390.6156.3653.7568.9662.1150.7828.0569.5847.83
#6Qwen/Qwen3.5-122B-A10B64.8474.4473.1737.7881.4686.1886.9764.0147.0455.1150.9052.4965.2472.4360.54
#7Sakalti/Ultiima-72B64.4978.3372.2868.7976.7583.7089.0860.4444.5869.1246.9142.2539.0274.0757.56
#8meta-llama/Llama-3.3-70B-Instruct63.9677.2271.5778.0577.9588.2885.6367.4456.2564.0051.1354.8627.4471.1624.43
#9Qwen/Qwen2.5-32B-Instruct63.2670.5668.7675.8072.0781.0385.8253.7848.0869.2756.9436.5134.1572.7593.10
#10FreedomIntelligence/AceGPT-v2-32B-Chat61.1476.6770.6279.7974.4684.8886.9763.8949.9671.4656.0447.3223.7854.5015.56

规模与性能的关系

在完整排行榜(共 46 个模型)中,规模与性能之间呈现出清晰但并非绝对的正相关关系。然而,也存在一些有趣的例外:

c64aafc7-1

🌟 QIMMA 的独特之处

以下是 QIMMA 独有属性的总结:

属性详情
质量优先理念验证在评估之前进行,而非事后补救
多模型验证两个训练数据不同的大语言模型 + 针对标记样本的人工审核
99% 原生阿拉伯语几乎完全避免了翻译引入的人工痕迹
多领域、多任务7 个领域、3 种任务类型(MCQ、QA、代码)、109 个子集
代码评估首个包含代码生成评估的阿拉伯语排行榜
完全透明公开发布逐样本推理输出,而非仅有聚合分数
基于 LightEval统一、可复现的评估代码库
方言感知在提示词和评分标准中显式处理现代标准阿拉伯语与方言变体的差异

🔗 资源

🔖 引用

@misc{alqadi2026arabicbenchmarksreliableqimmas,
title={Are Arabic Benchmarks Reliable? QIMMA's Quality-First Approach to LLM Evaluation}, 
author={Leen AlQadi and Ahmed Alzubaidi and Mohammed Alyafeai and Hamza Alobeidli and Maitha Alhammadi and Shaikha Alsuwaidi and Omar Alkaabi and Basma El Amel Boussaha and Hakim Hacid},
year={2026},
eprint={2604.03395},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2604.03395}, 
}

引用


分享到:

上一篇
基于 ICL 的表格基础模型的 Context Payload 优化
下一篇
使用 DVC 和 Amazon SageMaker AI MLflow Apps 实现端到端血缘追踪