Mistral AI lance Mistral Small 3.1 : une nouvelle référence pour l'IA open source ?

Mistral AI lance Mistral Small 3.1 : une nouvelle référence pour l'IA open source ?

En bref : Mistral AI a lancé Small 3.1, une version améliorée de son modèle de langage Small 3, qui offre des performances supérieures avec une architecture compacte. Ce modèle est adapté pour les tâches nécessitant une compréhension avancée de longs textes et d'images, tout en permettant aux entreprises de garder le contrôle de leurs données sans dépendre d'une infrastructure cloud.

Le 30 janvier dernier, Mistral AI, licorne française de la GenAI, introduisait Small 3, un LLM de 24 milliards de paramètres, démontrant que pour être performant, un LLM ne requiert pas un nombre astronomique de paramètres. Small 3.1, son successeur, conserve une architecture compacte tout en introduisant des améliorations significatives en termes de performance, de compréhension multimodale et de gestion des contextes longs, surpassant ainsi des modèles comme Gemma 3-it 27B de Google et GPT-4o Mini d'OpenAI.

Tout comme son prédécesseur, Small 3.1 compte 24 milliards de paramètres et peut être déployé sur des configurations matérielles accessibles, comme un PC fonctionnant avec un seul GPU RTX 4090 ou un Mac avec une mémoire RAM de 32 Go, ce qui permet aux entreprises de garder le contrôle sur leurs données sensibles sans dépendre d'une infrastructure cloud centralisée. La vitesse d’inférence est la même : 150 tokens par seconde, garantissant une latence minimale pour les applications nécessitant des réponses instantanées. Fidèle à son engagement en faveur de l'open source, Mistral AI propose les deux modèles sous licence Apache 2.0, permettant ainsi à la communauté de les utiliser, affiner et déployer pour divers cas d'utilisation. 

Source: Mistral AI

Optimisation des performances

Si Small 3.1 s'appuie sur Small 3, l’une des avancées majeures réside dans l’expansion de la fenêtre contextuelle de 32 000 à 128 000 tokens, un atout essentiel pour les tâches impliquant un raisonnement sur de longues séquences de texte. Alors que Mistral Small 3 se concentrait principalement sur le texte, la version 3.1 améliore l’interprétation des images et des documents, ce qui le positionne favorablement face aux modèles propriétaires de petite taille et ouvre la porte à des applications variées, allant du contrôle qualité industriel à la reconnaissance documentaire en passant par l'analyse automatique d'images médicales.
Mistral Small 3.1 est disponible sous deux formats :
  • Une version instruite, Mistral Small 3.1 Instructprête à être utilisée pour des tâches conversationnelles et de compréhension du langage ;
  • Une version préentraînée, Mistral Small 3.1 Base, idéale pour le fine-tuning et la spécialisation sur des domaines spécifiques (santé, finance, juridique, etc.).
 
La version Instruct  est l'un des meilleurs modèles de sa catégorie, surpassant ses concurrents sur les benchmarks nécessitant du raisonnement et de la compréhension contextuelle. Selon les benchmarks partagés par Mistral AI :
  • Small 3.1 Instruct affiche de meilleures performances que Gemma 3-it (27B) de Google dans des tâches textuelles, multimodales et multilingues ;
  • Il dépasse GPT-4o Mini d'OpenAI dans des benchmarks comme MMLU, HumanEval et LongBench v2, notamment grâce à sa fenêtre contextuelle étendue à 128 000 tokens ; 
  • Il surpasse également Claude-3.5 Haiku dans des tâches complexes impliquant des contextes longs et des données multimodales;
  • Il excelle face à Cohere Aya-Vision (32B) dans des benchmarks multimodaux comme ChartQA et DocVQA, démontrant une compréhension avancée des données visuelles et textuelles ;
  • Small 3.1 affiche des performances élevées en multilinguisme, surpassant ses concurrents dans des catégories comme les langues européennes et asiatiques.
Mistral Small 3.1 peut être téléchargé sur la plateforme Huggingface et testé sur la Plateforme de Mistral AI. Il est également disponible sur Google Cloud Vertex AI et sera proposé sur NVIDIA NIM dans les semaines à venir.

Pour mieux comprendre (assisté par l'IA)

Qu'est-ce qu'un LLM (Large Language Model) en termes de technologie et de fonctionnement ?

Un LLM est un modèle d'intelligence artificielle conçu pour comprendre et générer du langage naturel. Il est composé de milliards de paramètres qui sont ajustés grâce à l'entraînement sur de grandes quantités de texte pour prédire le mot suivant dans une phrase. Les LLMs sont utilisés pour des applications comme la traduction automatique, le résumé de texte, et les agents conversationnels.

Qu'est-ce que la licence Apache 2.0 et pourquoi est-elle importante pour les projets open source ?

La licence Apache 2.0 est une licence de logiciel libre qui permet aux utilisateurs de faire d'importantes modifications et d'utiliser le logiciel à des fins commerciales ou privées tout en accordant des brevets. Elle est importante car elle assure que les contributions restent libres et accessibles, stimulant l'innovation et l'adoption de nouvelles technologies.

OSZAR »