This is the Trace Id: 65bc654388d677240ba4d504911f6519
Gå till huvudinnehåll
Azure

Vad är små språkmodeller (SLM:er)?

Lär dig hur du använder små språkmodeller för att innovera snabbare och effektivare med AI. 

En översikt över små språkmodeller (SLM:er)

Små språkmodeller är beräkningsmodeller som kan svara på och generera naturligt språk. Serviceavtal tränas för att utföra specifika uppgifter med färre resurser än större modeller.

Viktiga lärdomar

  • Små språkmodeller är en delmängd av språkmodeller som utför specifika uppgifter med färre resurser än större modeller.
  • Serviceavtal skapas med färre parametrar och enklare neurala arkitekturer än stora språkmodeller (LLM), vilket möjliggör snabbare träning, minskad energiförbrukning och distribution på enheter med begränsade resurser.
  • Potentiella begränsningar för serviceavtal omfattar en begränsad kapacitet för komplext språk och minskad noggrannhet i komplexa uppgifter.
  • Fördelarna med att använda serviceavtal omfattar lägre kostnader och bättre prestanda i domänspecifika program.

Hur fungerar serviceavtal?

En liten språkmodell (SLM) är en beräkningsmodell som kan svara på och generera naturligt språk. SLM:er är utformade för att utföra några av samma bearbetningsuppgifter för naturligt språk som deras större, mer kända motsvarigheter till storspråksmodellen (LLM), men i mindre skala. De är byggda med färre parametrar och enklare arkitekturer för neurala nätverk, vilket gör att de kan arbeta med mindre beräkningskraft samtidigt som de ger värdefulla funktioner i specialiserade program.

Grundläggande arkitektur

Små språkmodeller skapas med hjälp av förenklade versioner av de artificiella neurala nätverk som finns i LLM:er. Språkmodeller har en uppsättning parametrar, justerbara inställningar, som de använder för att lära sig av data och göra förutsägelser. SLM:er innehåller mycket färre parametrar än LLM:er, vilket gör dem snabbare och effektivare än större modeller. Om LLM:er som GPT-4 kan innehålla mer än en biljon parametrar kanske ett SLM bara innehåller några hundra miljoner. Mindre arkitektur gör att SLM:er kan utföra naturliga språkbehandlingsuppgifter i domänspecifika applikationer, som kundtjänstchatbotar och virtuella assistenter, med mycket mindre beräkningskraft än LLM:er.

Nyckelkomponenter

Språkmodeller bryter upp text i ordinbäddningar – numeriska representationer som fångar innebörden av ord – som bearbetas av en transformator med hjälp av en kodare. En avkodare genererar sedan ett unikt svar på texten.

Utbildningsprocess

Att träna en språkmodell innebär att exponera den för en stor datamängd som kallas textkorpus. Serviceavtal tränas på datauppsättningar som är mindre och mer specialiserade än de som används av även relativt små LLM:er. De datamängds-SLM:er som tränas på är vanligtvis specifika för deras funktion. När en modell har tränats kan den anpassas för olika specifika uppgifter genom finjustering.
FÖRMÅNER

Fördelarna med att använda små språkmodeller

SLM:er erbjuder flera fördelar jämfört med LLM:er:

Lägre beräkningskrav

Små språkmodeller kräver mindre beräkningskraft, vilket gör dem idealiska för miljöer med begränsade resurser. Den här effektiviteten möjliggör användning av dessa modeller på mindre enheter.

Minskad träningstid

Små modeller tränar snabbare än större modeller, vilket möjliggör snabbare iterationer och experimentering. Kortare utbildningstid påskyndar utvecklingsprocessen för att underlätta snabbare distribution och testning av nya program.

Förenklad distribution på gränsenheter

Deras kompakta storlek och lägre resurskrav gör serviceavtal idealiska för gränsenheter. Serviceavtal kan köras effektivt utan konstant molnanslutning, vilket förbättrar prestanda och tillförlitlighet genom att bearbeta data lokalt.

Minskad energiförbrukning

Serviceavtal använder mindre energi. Det gör dem mer miljöanpassade och kostnadseffektiva än lla datorer.

Bättre relevans

Eftersom deras utbildning fokuserar på specifika uppgifter kan SLM:er ge mer exakta svar och information inom de områden som de tränas i. Deras specialiserade natur möjliggör finjustering som ofta överträffar större modeller i domänspecifika program.

Lägre kostnader

De minskade beräkningskraven, utbildningstiden och energiförbrukningen för SLM:er resulterar i lägre totala kostnader. Den här prisvärdheten gör dem tillgängliga för ett bredare utbud av personer och organisationer.

Utmaningar och begränsningar för serviceavtal

Små språkmodeller är utformade för att vara effektiva och lätta. Den här designen kan leda till begränsningar i deras förmåga att bearbeta och förstå komplext språk, vilket kan minska deras noggrannhet och prestanda vid hantering av invecklad uppgifter.

Här är några vanliga utmaningar som är kopplade till serviceavtal:
Begränsad kapacitet för komplex språkförståelse:
Om LLM:er hämtar information från ett omfattande, omfattande bibliotek hämtar SLM:er från en liten del av biblioteket, eller kanske till och med några mycket specifika böcker. Detta begränsar prestandan, flexibiliteten och kreativiteten hos SLM:er när det gäller att slutföra komplexa uppgifter som drar nytta av de ytterligare parametrarna och kraften hos LLM:er. SLM:er kan ha svårt att förstå nyanser, kontextuella subtiliteter och intrikata relationer inom språket, vilket kan leda till missförstånd eller alltför förenklade tolkningar av text.
Potential för minskad noggrannhet för komplexa uppgifter:
Små språkmodeller står ofta inför utmaningar när det gäller att upprätthålla noggrannheten när det gäller komplexa problemlösnings- eller beslutsscenarier. Deras begränsade processorkraft och mindre uppsättningar med träningsdata kan resultera i minskad precision och ökade felfrekvenser för uppgifter som involverar mångfacetterade resonemang, intrikata datamönster eller höga abstraktionsnivåer. Därför kanske de inte är det bästa valet för program som kräver hög noggrannhet, till exempel vetenskaplig forskning eller medicinsk diagnostik.
Begränsad prestanda:
Den övergripande prestandan för små språkmodeller begränsas ofta av deras storlek och beräkningseffektivitet. Även om de är bra för snabba och kostnadseffektiva lösningar kanske de inte levererar den robusta prestanda som krävs för krävande uppgifter.

Dessa och andra begränsningar gör SLM:er mindre effektiva i program som kräver djupinlärning. Utvecklare bör överväga begränsningarna för SLM:er mot deras specifika behov.

Typer av små språkmodeller

Serviceavtal kan kategoriseras i tre huvudtyper: destillerade versioner av större modeller, uppgiftsspecifika modeller och lätta modeller.

Destillerade versioner av större modeller

I den här metoden används en stor lärarmodell för att träna en mindre elevmodell, som lär sig att efterlikna lärarens beteende. Elevmodellen behåller mycket av lärarens kunskaper men kräver färre parametrar och mindre beräkningskraft. Destillering möjliggör effektiv distribution av språkmodeller i miljöer där resurserna är begränsade, samtidigt som en hög prestandanivå bibehålls. En populär destillerad SLM är DistilBERT, som erbjuder jämförbara prestanda jämfört med dess större motsvarighet, BERT, men med minskad storlek och snabbare slutsatsdragningstider.

Uppgiftsspecifika modeller

Uppgiftsspecifika modeller är små språkmodeller som är skräddarsydda för vissa uppgifter eller domäner. Till skillnad från allmänna modeller som ChatGPT är dessa modeller finjusterade för att utmärka sig i specifika program, till exempel attitydanalys, översättning eller frågesvar. Genom att fokusera på en smal uppsättning uppgifter kan uppgiftsspecifika modeller ibland uppnå högre noggrannhet och effektivitet än mer generaliserade modeller. De är särskilt användbara när höga prestanda krävs för en viss uppgift, och modellens omfång kan begränsas för att optimera resursanvändningen.

Lätta modeller

Enkla modeller skapas med färre parametrar och arkitekturer som är optimerade för att minimera beräkningskrav samtidigt som de ger starka prestanda. De används ofta i mobilappar, gränsenheter eller andra scenarier där beräkningsresurserna är begränsade.

Användningsfall för serviceavtal

Små språkmodeller är optimerade för specifika program, vilket gör dem idealiska för miljöer med begränsade resurser eller specifika behov. Några viktiga användningsfall för SLM:er är program på enheten, språkbearbetning i realtid och inställningar med låg resursnivå.

Program på enheten

Serviceavtal passar bra för program på enheten, där beräkningsresurser är begränsade och sekretess är ett problem. Genom att köra direkt på enheter som smartphones, surfplattor och smarta högtalare kan dessa modeller utföra uppgifter som röstigenkänning, textförutsägelse och språköversättning utan att förlita sig på konstant internetanslutning och tjänster för molnbaserad databehandling. Detta förbättrar användarsekretessen genom att hålla databearbetningen lokal och förbättra programmens svarstider. Exempel är prediktiv textinmatning, virtuella assistenter och offlineöversättningstjänster.

Språkbearbetning i realtid

I scenarier där snabba svarstider är kritiska erbjuder små språkmodeller betydande fördelar på grund av deras snabba svarstid. Språkbearbetning i realtid är viktigt i program som chattrobotar, automatisering av kundtjänst och transkriptionstjänster i realtid. Dessa modeller kan hantera språkuppgifter med minimal svarstid, vilket ger användarna omedelbar feedback och sömlös interaktion.

Inställningar för låg resurs

Serviceavtal är särskilt värdefulla i lågresursinställningar där beräkningskraft och bandbredd är begränsade. De kan distribueras på prisvärd maskinvara, vilket gör dem tillgängliga för fler personer och organisationer.

Nya SLM-trender och framsteg

Små språkmodeller utgör ett betydande framsteg inom bearbetning av naturligt språk och maskininlärning. Deras förmåga att förstå och generera mänsklig text har öppnat nya möjligheter för olika program, från kundtjänst till skapande av innehåll. I takt med att språkmodellerna fortsätter att utvecklas kommer SLM:er sannolikt att bli mer sofistikerade och erbjuda fler funktioner med större effektivitet. Här är några nya SLM-trender och framsteg:
Framsteg inom modelleffektivitet och komprimeringstekniker:
Pågående forskning förväntas ge effektivare modeller med förbättrade komprimeringstekniker. Dessa framsteg kommer att ytterligare förbättra funktionerna i serviceavtal, så att de kan hantera mer komplexa uppgifter samtidigt som de behåller sin mindre storlek. Till exempel har den senaste versionen av Phi-3 SLM nu funktioner för visuellt innehåll.
Bredare program när databehandling på gränsenheter växer:
I takt med att databehandling på gränsenheter blir vanligare kommer SLM:er att hitta program i ett bredare utbud av fält, vilket tillgodoser olika behov och utökar deras räckvidd. Möjligheten att bearbeta data lokalt på gränsenheter öppnar nya möjligheter för realtidsbaserade och kontextmedvetna AI-lösningar.
Åtgärda aktuella begränsningar
Arbetet med att förbättra noggrannheten och hantera olika språk pågår. Genom att åtgärda dessa begränsningar strävar forskare efter att förbättra prestandan för SLM:er på olika språk och kontexter, vilket gör dem mer mångsidiga och kompatibla. 
Hybridmodeller och federerad inlärning:
Federerad inlärning och hybridmodeller är ett bra sätt att få mer robusta och mångsidiga serviceavtal. Federerad inlärning gör att modeller kan tränas på flera enheter utan att dela känsliga data, vilket förbättrar sekretessen och säkerheten. Hybridmodeller, som kombinerar styrkan i olika arkitekturer, ger nya möjligheter att optimera prestanda och effektivitet.

Dessa trender visar den växande effekten av små språkmodeller när det gäller att göra AI mer tillgängligt, effektivt och anpassningsbart för en mängd olika program. Allt eftersom de fortsätter att utvecklas kommer SLM:er att bli viktiga verktyg som driver innovation inom AI i olika miljöer och branscher. 
RESURSER  

Lär dig nya färdigheter och utforska den senaste utvecklartekniken. 

Studentutvecklare

Rivstarta din tekniska karriär

Få färdigheter för att komma igång med din karriär inom teknik och göra en positiv inverkan på världen.
Azure-resurser

Utforska Azure-resurscentret

Utforska Azures utbildnings- och certifieringsprogram, frågor&svar, händelser, videor och andra resurser för utvecklare.
Microsoft Learn

Azure AI utbildningshubben

Få de färdigheter du behöver för att påskynda AI-implementeringen i stor skala.

Vanliga frågor och svar

  • Serviceavtal är utformade för uppgifter som kräver färre beräkningsresurser. LLM:er erbjuder bättre funktioner men kräver mycket mer bearbetningskraft. Serviceavtal är idealiska för gränsberäkning och miljöer med låg resursnivå, medan LLM:er är utmärkta när det gäller att hantera komplexa uppgifter.

  • Små språkmodeller är idealiska för uppgifter som kräver effektivitet, till exempel att köra program i miljöer med låg resursnivå eller där snabba svar är avgörande. De är också användbara för specifika uppgifter som inte kräver de omfattande funktionerna i en stor språkmodell.

  • Fördelarna med att använda ett SLM jämfört med en LLM omfattar lägre beräkningskrav, snabbare svarstider och lämplighet för distribution på gränsenheter. Serviceavtal är mer effektiva och kostnadseffektiva för uppgifter som inte kräver de omfattande funktionerna i en stor språkmodell. Det gör dem idealiska för realtidsprogram och miljöer med begränsade resurser.