في 30 يناير الماضي، قدمت Mistral AI، الشركة الفرنسية الناشئة في مجال GenAI، Small 3، وهو نموذج LLM يحتوي على 24 مليار معلمة، مما يُظهر أن أداء LLM لا يتطلب عددًا هائلًا من المعلمات. Small 3.1، خليفته، يحتفظ بهيكلية مضغوطة بينما يقدم تحسينات كبيرة في الأداء، الفهم المتعدد الوسائط، وإدارة السياقات الطويلة، متفوقًا على نماذج مثل Gemma 3-it 27B من Google وGPT-4o Mini من OpenAI.
المصدر: Mistral AI
تحسين الأداء
- نسخة مدربة، Mistral Small 3.1 Instruct, جاهزة للاستخدام في مهام المحادثات وفهم اللغة؛
- نسخة مدربة مسبقًا، Mistral Small 3.1 Base, مثالية للتدريب المتقدم والتخصص في مجالات معينة (الصحة، المالية، القانونية، إلخ.).
- يقدم Small 3.1 Instruct أداءً أفضل من Gemma 3-it (27B) من Google في المهام النصية، المتعددة الوسائط، ومتعددة اللغات؛
- يتفوق على GPT-4o Mini من OpenAI في benchmarks مثل MMLU, HumanEval وLongBench v2 بفضل نافذة السياق الموسعة إلى 128,000 token؛
- يتفوق أيضًا على Claude-3.5 Haiku في المهام المعقدة التي تتضمن سياقات طويلة وبيانات متعددة الوسائط؛
- يتفوق أمام Cohere Aya-Vision (32B) في benchmarks المتعددة الوسائط مثل ChartQA وDocVQA، مما يُظهر فهمًا متقدمًا للبيانات البصرية والنصية؛
- يقدم Small 3.1 أداءً عاليًا في تعدد اللغات، متفوقًا على منافسيه في فئات مثل اللغات الأوروبية والآسيوية.
لتحسين الفهم
ما هو <span dir="ltr">LLM (Large Language Model)<span dir="ltr"> من حيث التكنولوجيا والوظيفة؟
<span dir="ltr">LLM<span dir="ltr"> هو نموذج ذكاء اصطناعي مصمم لفهم وإنتاج اللغة الطبيعية. يتكون من مليارات المعلمات التي تعدل من خلال التدريب على كميات كبيرة من النصوص لتوقع الكلمة التالية في الجملة. تُستخدم <span dir="ltr">LLMs<span dir="ltr"> في تطبيقات مثل الترجمة الآلية، تلخيص النصوص، والوكلاء الحواريين.
ما هي رخصة <span dir="ltr">Apache 2.0<span dir="ltr"> ولماذا هي مهمة للمشاريع مفتوحة المصدر؟
رخصة <span dir="ltr">Apache 2.0<span dir="ltr"> هي رخصة برمجيات مفتوحة المصدر تسمح للمستخدمين بإجراء تغييرات كبيرة واستخدام البرمجيات لأغراض تجارية أو شخصية مع منح براءات الاختراع. إنها مهمة لأنها تضمن أن تظل المساهمات حرة ومتاحة، مما يعزز الابتكار واعتماد التقنيات الجديدة.