databelarebia 2026-04-22
بحث

تقييم عربي جديد QIMMA كيكشف مشاكل خطيرة فالـ benchmarks الموجودة

databelarebia

# منصة QIMMA: أول تقييم عربي للنماذج اللغوية يبدا من الجودة مش من الأرقام

فعالم تقييم نماذج اللغة الاصطناعية، ظهرت منصة جديدة اسمها **QIMMA قِمّة** — وكلمة "قِمّة" بالعربية كتعني القمة أو السمو — وهاد المشروع جاي باش يحل مشكلة حقيقية كانت كتعيق تطور معالجة اللغة العربية بالذكاء الاصطناعي.


شنو هي QIMMA؟

منصة QIMMA هي **leaderboard** متخصصة فتقييم النماذج اللغوية الكبيرة على اللغة العربية. اللي كيميزها على المنصات الأخرى هو أنها ما كتجيش تجمع **benchmarks** موجودة وتشغلها مباشرة — بل كتدخلهم أولاً من خلال **pipeline** صارم ديال التحقق من الجودة، قبل ما تستعملهم باش تقيم أي نموذج.

الفريق ديالها شرح بشكل واضح: الهدف مو غير جمع نتائج وعرضها، بل التأكد بأن الأرقام اللي كتظهر كتعكس قدرة حقيقية على اللغة العربية، مش مجرد أداء فبيانات مشكوك فيها.


المشكلة اللي جاءت QIMMA باش تحلها

اللغة العربية كيتكلمها فوق **400 مليون** شخص، وهاد الرقم كبير بزاف. بصح مجال تقييم النماذج العربية لا يزال **fragmented** ومش منظم بشكل كافي. المشكل الأساسي كيجي من نقطتين رئيسيتين:

**أولاً، مشكل الترجمة:** بزاف من **benchmarks** العربية هي في الحقيقة ترجمات من الإنجليزية. وهاد الترجمة كتخلق ما كيسمى **distributional shift** — يعني أسئلة كانت طبيعية بالإنجليزية كتصبح غريبة أو مش ملائمة ثقافياً بالعربية. والنتيجة؟ البيانات ما كتمثلش اللغة العربية الحقيقية.

**ثانياً، مشكل التشرذم:** المنصات والمعايير كتتكثر بسرعة، بصح التساؤل اللي بقى قائم هو: واش فعلاً كنقيسو اللي كنظنو أننا كنقيسوه؟ هاد السؤال هو اللي بنى عليه الفريق كامل مشروع QIMMA.


الاكتشافات الصادمة

اللي لقاه الفريق وهو يشتغل على هاد المشروع كان، على حسب وصفهم، **sobering** — يعني مقلق بجدية. حتى **benchmarks** العربية المعروفة وكثيرة الاستخدام فيها مشاكل منهجية خفية كيمكنها تفسد نتائج التقييم بشكل صامت، من غير ما حتى يلاحظ الباحثون.

هاد الاكتشاف كبير لأنه كيعني أن كثير من التصنيفات والأرقام اللي كانت تُعلن عليها في السابق ممكن ما تكونش دقيقة كما كانو كيظنو.


كيفاش تشتغل المنصة؟

مسار العمل ديال منصة QIMMA كيمشي على ثلاث مراحل: **أولاً** التحقق من جودة **benchmarks** قبل أي تقييم. **ثانياً** تطبيق **pipeline** منهجي باش يكشف المشاكل. **ثالثاً** تقييم النماذج على البيانات المنقاة فقط، وعرض النتائج فـ **leaderboard** شفافة.

المشروع متاح للعموم: فيه **leaderboard** مفتوحة، وكود على **GitHub** للمطورين، وورقة بحثية **paper** تشرح المنهجية كاملة.


شنو كيعني هاد الخبر للقطاع؟

ظهور منصة QIMMA كيكشف نقطة عمياء حقيقية فتطوير الذكاء الاصطناعي للغات غير الإنجليزية: حتى حين تتوفر **benchmarks**، جودتها مش مضمونة. بالنسبة لقطاع اللغة العربية تحديداً، هاد المبادرة ممكن تغير طريقة مقارنة النماذج اللغوية وتقييمها، وتدفع الشركات والباحثين باش يعيدو النظر في نتائج كانو يعتمدو عليها. على المدى البعيد، إلا اعتمدات مجموعة من الفرق هاد المنهجية القائمة على التحقق قبل التقييم، ممكن تتحسن جودة النماذج العربية بشكل ملموس أكثر من أي وقت مضى.


مقال من databelarebia — نشرة يومية ديال أخبار الذكاء الاصطناعي بالدارجة المغربية

← ارجع لكل المقالات

مشروع ديال 2PiData