This is the Trace Id: 4a9f47725e8699d4ba8019ee9b969c30
Passer directement au contenu principal
Azure

Qu'est-ce qu'un petit modèle de langage (SLM) ?

Découvrez comment utiliser de petits modèles de langage pour innover plus rapidement et plus efficacement avec l’IA. 

Vue d'ensemble des petits modèles de langage (SLM)

Les petits modèles de langage (SLM) sont des modèles de calcul qui peuvent répondre au langage naturel et en générer. Les SLM sont formés pour effectuer des tâches spécifiques en utilisant moins de ressources que les modèles plus volumineux.

Principaux points à retenir

  • Les petits modèles de langage sont un sous-ensemble de modèles de langage qui effectuent des tâches spécifiques en utilisant moins de ressources que les modèles plus volumineux.
  • Les SLM sont générés avec moins de paramètres et d’architectures neuronales plus simples que les grands modèles de langage (LLM), ce qui permet une formation plus rapide, une consommation d’énergie réduite et un déploiement sur des appareils avec des ressources limitées.
  • Les limitations potentielles des SLM incluent une capacité limitée pour un langage complexe et une précision réduite dans les tâches complexes.
  • Les avantages de l’utilisation de SLM incluent des coûts inférieurs et des performances améliorées dans les applications spécifiques au domaine.

Comment fonctionnent les SLM ?

Un petit modèle de langage (SLM) est un modèle informatique capable de répondre à un langage naturel et de le générer. Les modules SLM sont conçus pour effectuer certaines des mêmes tâches de traitement du langage naturel que leurs équivalents LLM plus grands et plus connus, mais à plus petite échelle. Ils sont créés avec moins de paramètres et des architectures de réseau neuronal plus simples, ce qui leur permet de fonctionner avec moins de puissance de calcul tout en fournissant des fonctionnalités précieuses dans les applications spécialisées.

Architecture de base

Les petits modèles de langage sont générés à l’aide de versions simplifiées des réseaux neuronaux artificiels trouvés dans les LLM. Les modèles de langage ont un ensemble de paramètres—essentiellement, des paramètres réglables—qu’ils utilisent pour apprendre des données et effectuer des prédictions . Les SLM contiennent beaucoup moins de paramètres que les LLM, ce qui les rend plus rapides et plus efficaces que les modèles plus grands. Lorsque des LLM comme GPT-4 peuvent contenir plus d’un billion de paramètres, un SLM peut contenir seulement quelques centaines de millions. Une architecture plus petite permet aux SLM d’effectuer des tâches de traitement du langage naturel dans des applications spécifiques à un domaine, telles que des bots conversationnels de service clientèle et des assistants virtuels, en utilisant beaucoup moins de puissance de calcul que les machines virtuelles logiques.

Composants clés

Les modèles de langage décomposent le texte en représentations numériques d’incorporation de—mots qui capturent la signification des mots—traités par un transformateur à l’aide d’un encodeur. Un décodeur produit ensuite une réponse unique au texte.

Processus de formation

La formation d’un modèle de langage implique de l’exposer à un jeu de données volumineux appelé corpus de texte. Les SLM sont formés sur des jeux de données plus petits et plus spécialisés que ceux utilisés par des LLM relativement petits. Les SLM de jeu de données sur lequel se forment sont généralement spécifiques à leur fonction. Une fois qu’un modèle est entraîné, il peut être adapté à différentes tâches spécifiques par le biais d’un réglage précis.
AVANTAGES

Avantages de l’utilisation de petits modèles de langage

SLM offre de nombreux avantages par rapport aux LLM :

Exigences de calcul inférieures

Les petits modèles de langage nécessitent moins de puissance de calcul, ce qui les rend idéales pour les environnements avec des ressources limitées. Cette efficacité permet d’utiliser ces modèles sur des appareils plus petits.

Réduction de la durée de formation

Les petits modèles se forment plus rapidement que les plus grands, ce qui permet des itérations et des expérimentations plus rapides. La réduction du temps de formation accélère le processus de développement, afin de faciliter le déploiement et le test plus rapides des nouvelles applications.

Déploiement simplifié sur les appareils en périphérie

Leur taille compacte et leurs besoins en ressources inférieurs rendent les SLM idéales pour les appareils de périphérie. Les SLM peuvent s’exécuter efficacement sans avoir besoin d’une connectivité cloud constante, ce qui améliore les performances et la fiabilité en traitant les données localement.

Réduction de la consommation d'énergie

Les SLM utilisent moins d’énergie. Cela les rend plus conviviaux et économiques que les LLM.

Exactitude améliorée

Étant donné que leur formation est axée sur des tâches spécifiques, les SLM peuvent fournir des réponses et des informations plus précises dans les domaines dans lesquels ils sont formés. Leur nature spécialisée permet un réglage précis qui dépasse souvent les modèles plus volumineux dans les applications spécifiques au domaine.

Réduire les coûts

La réduction des exigences de calcul, du temps de formation et de la consommation d’énergie des SLM entraîne des coûts globaux inférieurs. Cette accessibilité les rend accessibles à un plus large éventail de personnes et d’organisations.

Défis et limites des SLM

Les petits modèles de langage sont conçus pour être efficaces et légers. Cette conception peut entraîner des contraintes sur leur capacité à traiter et à comprendre un langage complexe, ce qui peut réduire leur précision et leurs performances dans la gestion des tâches complexes.

Voici quelques défis courants associés aux SLM :
Capacité limitée pour une compréhension du langage complexe :
Si les LLM tirent des informations d’une bibliothèque volumineuse et englobante, les SLM tirent des données d’une petite section de la bibliothèque, voire de quelques livres très spécifiques. Cela limite les performances, la flexibilité et la créativité des SLM dans l’exécution de tâches complexes qui tirent parti des paramètres supplémentaires et de la puissance des modules LLM. Les SLM peuvent avoir du mal à saisir les nuances, les subtilités contextuelles et les relations complexes au sein du langage, ce qui peut conduire à des malentendus ou à des interprétations trop simples du texte.
Possibilité d’une précision réduite sur les tâches complexes :
Les petits modèles de langage rencontrent souvent des difficultés pour maintenir la précision lorsqu’ils sont chargés de scénarios complexes de résolution de problèmes ou de prise de décision. Leur puissance de traitement limitée et leurs jeux de données de formation plus petits peuvent entraîner une précision réduite et des taux d’erreurs accrus sur les tâches qui impliquent un raisonnement multifaceux, des modèles de données complexes ou des niveaux élevés d’abstraction. Par conséquent, ils peuvent ne pas être le meilleur choix pour les applications qui exigent une haute précision, telles que la recherche scientifique ou les diagnostics médicaux.
Performance limitée :
Les performances globales des petits modèles de langage sont souvent limitées par leur taille et leur efficacité de calcul. Bien qu’ils soient avantageux pour des solutions rapides et économiques, ils peuvent ne pas fournir les performances robustes requises pour les tâches exigeantes.

Ces limitations et d’autres rendent les SLM moins efficaces dans les applications qui nécessitent de Deep Learning. Les développeurs doivent tenir compte des limitations des SLM par rapport à leurs besoins spécifiques.

Types de petit modèle de langage (SLM)

Les SLM peuvent être classés en trois types principaux : versions condensées de modèles plus volumineux, modèles spécifiques aux tâches et modèles légers.

Versions condensées de modèles plus grands

Dans cette approche, un modèle d’enseignant de grande taille est utilisé pour entraîner un modèle d’étudiant plus petit, qui apprend à simuler le comportement de l’enseignant. Le modèle étudiant conserve une grande partie des connaissances de l’enseignant, mais nécessite moins de paramètres et moins de puissance de calcul. La condensation permet un déploiement efficace des modèles de langage dans des environnements où les ressources sont limitées, tout en conservant un niveau élevé de performances. Un SLM populaire est DistilBERT, qui offre des performances comparables à son équivalent plus grand, BERT, mais avec une taille réduite et des temps d’inférence plus rapides.

Modèles spécifiques aux tâches

Les modèles spécifiques aux tâches sont de petits modèles de langage adaptés à des tâches ou des domaines particuliers. Contrairement aux modèles à usage général tels que ChatGPT, ces modèles sont affinés pour excel dans des applications spécifiques, telles que l’analyse des sentiments, la traduction ou la réponse aux questions. En se concentrant sur un ensemble étroit de tâches, les modèles spécifiques aux tâches peuvent parfois obtenir une précision et une efficacité supérieures à celles des modèles plus généralisés. Elles sont particulièrement utiles lorsque la haute performance est nécessaire pour une tâche particulière, et que l’étendue du modèle peut être limitée pour optimiser l’utilisation des ressources.

Modèles légers

Les modèles légers sont créés avec moins de paramètres et d’architectures optimisés pour réduire les demandes de calcul tout en offrant des performances élevées. Ils sont souvent utilisés dans les applications mobiles, les périphériques ou d’autres scénarios où les ressources de calcul sont limitées.

Exemples d’utilisation du service SLM

Les petits modèles de langage sont optimisés pour des applications spécifiques, ce qui les rend idéales pour les environnements avec des ressources limitées ou des besoins spécifiques. Certains cas d’utilisation clés pour les SLM incluent les applications sur appareil, le traitement du langage en temps réel et les paramètres de ressources insuffisantes.

Applications sur l'appareil

Les SLM conviennent parfaitement aux applications sur appareil, où les ressources de calcul sont limitées et où la confidentialité est un problème. En s’exécutant directement sur des appareils tels que des smartphones, des tablettes et des haut-parleurs intelligents, ces modèles peuvent effectuer des tâches telles que la reconnaissance vocale, la prédiction de texte et la traduction de langue sans s’appuyer sur une connectivité Internet constante et cloud computing services. Cela améliore la confidentialité des utilisateurs en conservant le traitement local des données et améliore la réactivité des applications. Les exemples incluent l’entrée de texte prédictif, les assistants virtuels et les services de traduction hors connexion.

Traitement du langage en temps réel

Dans les scénarios où les temps de réponse rapides sont critiques, les petits modèles de langage offrent des avantages significatifs en raison de leur temps de réponse rapide. Le traitement du langage en temps réel est essentiel dans les applications telles que les chatbots, l’automatisation du service client et les services de transcription en direct. Ces modèles peuvent gérer les tâches linguistiques avec une latence minimale, en fournissant aux utilisateurs des commentaires immédiats et des interactions transparentes.

Milieux à faibles ressources

Les SLM sont particulièrement utiles dans les paramètres à faibles ressources où la puissance de calcul et la bande passante sont limitées. Ils peuvent être déployés sur du matériel abordable, ce qui les rend accessibles à davantage de personnes et d’organisations.

Tendances et avancées SLM émergentes

Les petits modèles de langage représentent une avancée significative dans le domaine du traitement du langage naturel et machine learning. Leur capacité à comprendre et à générer du texte de type humain a ouvert de nouvelles possibilités pour différentes applications, du service clientèle à la création de contenu. À mesure que les modèles de langage évoluent, les SLM deviendront probablement plus sophistiqués et offriront plus de fonctionnalités avec une plus grande efficacité. Voici quelques tendances et avancées SLM émergentes :
Avancées en matière d’efficacité de modèle et de techniques de compression :
Les recherches en cours sont censées produire des modèles plus efficaces avec des techniques de compression améliorées. Ces avancées amélioreront davantage les fonctionnalités des SLM, ce qui leur permettra de s’attaquer à des tâches plus complexes tout en conservant leur taille plus petite. Par exemple, la dernière version de Phi-3 SLM a maintenant fonctionnalités de vision par ordinateur.
Applications plus larges à mesure que le computing en périphérie augmente :
À mesure que le computing en périphérie devient plus répandu, les SLA recherchent des applications dans un plus large éventail de champs, répondant à divers besoins et développant leur portée. La possibilité de traiter des données localement sur des appareils en périphérie ouvre de nouvelles possibilités pour les solutions d’IA en temps réel et contextuel.
Adressage des limites actuelles
Les efforts visant à améliorer la précision et à gérer divers langages sont en cours. En corrigeant ces limitations, les chercheurs cherchent à améliorer les performances des SLA dans différents langages et contextes, ce qui les rend plus polyvalents et plus performants. 
Modèles hybrides et apprentissage fédéré :
L’apprentissage fédéré et les modèles hybrides ouvrent la voie à des SLA plus robustes et plus polyvalents. L’apprentissage fédéré permet d’entraîner des modèles sur plusieurs appareils sans partager de données sensibles, ce qui améliore la confidentialité et la sécurité. Les modèles hybrides, qui combinent les forces des différentes architectures, offrent de nouvelles opportunités d’optimisation des performances et de l’efficacité.

Ces tendances soulignent l’impact croissant des petits modèles de langage pour rendre l’IA plus accessible, efficace et adaptable à un large éventail d’applications. À mesure qu’ils continueront à évoluer, les SLM deviendront des outils essentiels, ce qui stimulera l’innovation dans l’IA dans différents environnements et secteurs d’activité. 
RESSOURCES  

Découvrez de nouvelles compétences et explorez les dernières technologies de développement. 

Étudiants développeurs

Démarrez votre carrière dans la technologie

Développez vos compétences pour lancer votre carrière en technologie et avoir un impact positif sur le monde.
Ressources Azure

Explorez le centre de ressources Azure

Découvrez les programmes de formation et de certification Azure, les Q&As, les événements, les vidéos et autres ressources pour les développeurs.
Microsoft Learn

Hub d’apprentissage Azure AI

Acquérez les compétences dont vous avez besoin pour accélérer l’implémentation de l’IA à grande échelle.

FAQ

  • Les SLM sont conçus pour les tâches nécessitant moins de ressources de calcul. Les machines virtuelles LLM offrent de meilleures fonctionnalités, mais nécessitent beaucoup plus de puissance de traitement. Les SLM sont idéaux pour l'informatique de pointe et les environnements à faibles ressources, tandis que les LLM excellent dans la gestion des tâches complexes.

  • Les petits modèles de langage sont idéals pour les tâches qui nécessitent une efficacité, telles que l’exécution d’applications dans des environnements à faibles ressources ou où les réponses rapides sont essentielles. Ils sont également utiles pour des tâches spécifiques qui ne nécessitent pas les capacités étendues d'un grand modèle de langage.

  • Les avantages de l’utilisation d’un SLM sur un LLM incluent des exigences de calcul inférieures, des temps de réponse plus rapides et une adéquation pour le déploiement sur des appareils en périphérie. Les SLA sont plus efficaces et rentables pour les tâches qui ne nécessitent pas les fonctionnalités étendues d’un grand modèle de langage. Cela les rend idéales pour les applications et les environnements en temps réel avec des ressources limitées.