This is the Trace Id: ad16c9626fb829c760037db5b6918226
Avançar para o conteúdo principal
Azure

O que são pequenos modelos de linguagem (SLMs)?

Saiba mais sobre como utilizar pequenos modelos de linguagem para inovar de forma mais rápida e eficiente com IA. 

Uma descrição geral dos pequenos modelos de linguagem (SLMs)

Os pequenos modelos de linguagem (SLMs) são modelos computacionais que podem responder e gerar linguagem natural. Os SLMs são preparados para realizar tarefas específicas com menos recursos do que os modelos maiores.

Principais conclusões

  • Os pequenos modelos de linguagem (SLMs) são um subconjunto de modelos de linguagem que executam tarefas específicas com menos recursos do que os modelos maiores.
  • Os SLMs são construídos com menos parâmetros e arquiteturas neurais mais simples do que os grandes modelos de linguagem (LLMs), permitindo uma preparação mais rápida, um consumo de energia reduzido e a implementação de modelos em dispositivos com recursos limitados.
  • As potenciais limitações dos SLMs incluem uma capacidade limitada para idiomas complexos e uma precisão reduzida em tarefas complexas.
  • As vantagens de utilizar SLMs incluem custos mais baixos e melhor desempenho em aplicações de domínio específico.

Como é que os SLMs funcionam?

Um pequeno modelo de linguagem (SLM) é um modelo computacional que pode responder e gerar linguagem natural. Os SLMs são concebidos para executar algumas das mesmas tarefas de processamento de linguagem natural que os seus homólogos maiores e mais conhecidos grandes modelos de linguagem (LLM), mas em escala mais pequena. São construídos com menos parâmetros e arquiteturas de rede neural mais simples, o que lhes permite operar com menos potencia computacional, continuando a fornecer uma funcionalidade valiosa em aplicações especializadas.

Arquitetura básica

Os pequenos modelos de linguagem são construídos com versões simplificadas das redes neurais artificiais encontradas nos LLMs. Os modelos de linguagem têm um conjunto de parâmetros-essencialmente, definições ajustáveis-que utilizam para aprender com os dados e fazer predições. Os SLMs contêm muito menos parâmetros do que os LLMs, tornando-os mais rápidos e mais eficientes do que os modelos maiores. Enquanto os LLMs como o GPT-4 podem conter mais de um bilião de parâmetros, um SLM pode conter apenas algumas centenas de milhões. Uma arquitetura mais pequena permite que os SLMs executem tarefas de processamento de linguagem natural em aplicações específicas de um domínio, como chatbots de apoio ao cliente e assistentes virtuais, com muito menos potência computacional do que os LLMs.

Componentes principais

Os modelos de linguagem dividem o texto em incorporações de palavras - representações numéricas que capturam o significado das palavras - que são processadas por um transformador utilizado num codificador. Um descodificador produz, em seguida, uma resposta exclusiva ao texto.

Processo de preparação

A preparação de um modelo de linguagem envolve expô-lo a um grande conjunto de dados denominado corpus de texto. Os SLMs são preparados em conjuntos de dados que são mais pequenos e mais especializados do que os utilizados por LLMs relativamente pequenos. O conjunto de dados em que os SLMs são preparados é tipicamente específico para a sua função. Após a preparação de um modelo, este pode ser adaptado a várias tarefas específicas através de otimização.
BENEFÍCIOS

As vantagens de utilizar pequenos modelos de linguagem

Os SLMs oferecem inúmeras vantagens em relação aos LLMs:

Requisitos computacionais mais baixos

Os pequenos modelos de linguagem requerem menos potência computacional, o que os torna ideais para ambientes com recursos limitados. Esta eficiência permite a utilização destes modelos com dispositivos mais pequenos.

Redução do tempo de preparação

Os modelos pequenos são preparados mais rapidamente do que os modelos maiores, permitindo iterações e experimentações mais rápidas. A redução do tempo de formação acelera o processo de desenvolvimento, para facilitar a implementação e o teste mais rápidos de novas aplicações.

Implementação simplificada em dispositivos edge

O seu tamanho compacto e os requisitos de recursos mais baixos tornam os SLMs ideais para dispositivos edge. Os SLMs podem funcionar eficientemente sem necessidade de conetividade constante à cloud, melhorando o desempenho e a fiabilidade através do processamento local de dados.

Consumo de energia reduzido

Os SLMs utilizam menos energia. Isto torna-os mais amigos do ambiente e mais económicos do que os LLMs.

Precisão melhorada

Uma vez que a sua preparação se concentra em tarefas específicas, os SLMs podem fornecer respostas e informações mais eficientes nas áreas em que foram preparados. A sua natureza especializada permite uma otimização que muitas vezes supera modelos maiores em aplicações de domínio específico.

Reduzir os custos

Os requisitos computacionais, o tempo de preparação e o consumo de energia reduzidos dos SLMs resultam em custos globais mais baixos. Esta acessibilidade torna-os acessíveis a um maior número de pessoas e organizações.

Desafios e limitações dos SLMs

Os pequenos modelos de linguagem são concebidos para serem eficientes e leves. Este design pode levar a restrições na sua capacidade de processar e compreender idiomas complexos, reduzindo potencialmente a sua precisão e desempenho no processamento de tarefas complexas.

Eis alguns desafios comuns associados aos SLMs:
Capacidade limitada de compreensão de linguagem complexa:
Se os LLMs solicitam informações de uma biblioteca vasta e abrangente, os SLMs fazem-no numa pequena secção da biblioteca, ou talvez até de alguns livros altamente específicos. Isto limita o desempenho, a flexibilidade e a criatividade dos SLMs na realização de tarefas complexas que beneficiam dos parâmetros adicionais e do poder dos LLMs. Os SLM podem ter dificuldade em compreender as nuances, as subtilezas contextuais e as relações intrincadas da linguagem, o que pode levar a mal-entendidos ou a interpretações demasiado simplificadas do texto.
Potencial de redução da precisão em tarefas complexas:
Os pequenos modelos de linguagem enfrentam muitas vezes desafios para manter a precisão quando têm de resolver problemas complexos ou tomar decisões. O seu poder de processamento limitado e os conjuntos de dados de preparação mais pequenos podem resultar numa precisão reduzida e num aumento das taxas de erro em tarefas que envolvem raciocínios multifacetados, padrões de dados intrincados ou níveis elevados de abstração. Consequentemente, podem não ser a melhor escolha para aplicações que procuram uma elevada precisão, como a investigação científica ou o diagnóstico médico.
Desempenho limitado:
O desempenho global dos pequenos modelos de linguagem é frequentemente limitado pelo seu tamanho e eficiência computacional. Embora sejam vantajosos para soluções rápidas e económicas, podem não apresentar o desempenho robusto procurado para tarefas exigentes.

Estas e outras limitações tornam os SLM menos eficazes em aplicações que requerem aprendizagem profunda. Os programadores devem considerar as limitações dos SLMs em relação às suas necessidades específicas.

Tipos de pequenos modelos de linguagem

Os SLMs podem ser categorizados em três tipos principais: versões destiladas de modelos maiores, modelos específicos de tarefas e modelos leves.

Versões destiladas de modelos maiores

Nesta abordagem, um grande modelo de professor é utilizado com o objetivo de preparar um modelo de estudante mais pequeno, que aprende a mimetizar o comportamento do professor. O modelo do estudante retém muito do conhecimento do professor, mas requer menos parâmetros e menos potência computacional. A destilação permite a implementação eficiente de modelos de linguagem em ambientes onde os recursos são limitados, mantendo um elevado desempenho. Um SLM destilado popular é o DistilBERT, que oferece um desempenho comparável ao do seu homólogo maior, o BERT, mas com um tamanho reduzido e tempos de inferência mais rápidos.

Modelos específicos de tarefas

Os modelos específicos de tarefas são pequenos modelos de linguagem adaptados a tarefas ou domínios específicos. Ao contrário dos modelos para fins gerais, como o ChatGPT, estes modelos são otimizados para se destacarem em aplicações específicas, como a análise de sentimentos, a tradução ou a resposta a perguntas. Ao concentrarem-se num conjunto restrito de tarefas, os modelos específicos de tarefas podem, por vezes, alcançar maior precisão e eficiência do que os modelos mais generalizados. São particularmente úteis quando é necessário um elevado desempenho para uma determinada tarefa e o âmbito do modelo pode ser limitado para otimizar a utilização de recursos.

Modelos ligeiros

Os modelos leves são concebidos com menos parâmetros e arquiteturas otimizadas para minimizar as procuras computacionais e, ao mesmo tempo, proporcionar um bom desempenho. São frequentemente utilizados em aplicações móveis, dispositivos edge ou outros cenários em que os recursos computacionais são limitados.

Casos de utilização de SLMs

Os pequenos modelos de linguagem são otimizados para aplicações específicas, tornando-os ideais para ambientes com recursos limitados ou necessidades específicas. Alguns casos de utilização-chave para SLMs incluem aplicações no dispositivo, processamento de linguagem em tempo real e definições com poucos recursos.

Aplicações no dispositivo

Os SLMs são indicados para aplicações no dispositivo, onde os recursos computacionais são limitados e a privacidade é uma preocupação. Ao serem executados diretamente em dispositivos como smartphones, tablets e altifalantes inteligentes, estes modelos podem realizar tarefas como reconhecimento de voz, predição de texto e tradução de idiomas sem depender de conetividade constante à Internet e de serviços de computação na cloud. Isto aumenta a privacidade do utilizador ao manter o processamento de dados local e melhora a capacidade de resposta das aplicações. Alguns exemplos incluem a introdução de texto por predição, assistentes virtuais e serviços de tradução offline.

Processamento de linguagem em tempo real

Em cenários em que os tempos de resposta rápidos são críticos, os pequenos modelos de linguagem oferecem vantagens significativas devido ao seu tempo de resposta rápido. O processamento de linguagem em tempo real é essencial em aplicações como chatbots, automatização do apoio ao cliente e serviços de transcrição em direto. Estes modelos de linguagem podem lidar com tarefas linguísticas com latência mínima, fornecendo aos utilizadores feedback imediato e interações de forma totalmente integrada.

Definições com poucos recursos

Os SLMs são particularmente poderosos em ambientes com poucos recursos, onde o poder computacional e a largura de banda são limitados. Podem ser implementados em hardware económico, o que os torna acessíveis a mais pessoas e organizações.

Tendências e avanços emergentes em SLM

Os pequenos modelos de linguagem representam um avanço significativo no domínio do processamento de linguagem natural e da aprendizagem automática. A sua capacidade de compreender e gerar texto semelhante ao humano abriu novas possibilidades para várias aplicações, desde o apoio ao cliente até à criação de conteúdos. À medida que os modelos de linguagem continuam a evoluir, os SLMs tornar-se-ão provavelmente mais sofisticados e oferecerão mais capacidades com maior eficiência. Eis algumas tendências e avanços emergentes em SLM:
Avanços na eficiência do modelo e técnicas de compressão:
Espera-se que a investigação em curso produza modelos mais eficientes com técnicas de compressão melhoradas. Estes avanços irão aumentar ainda mais as capacidades dos SLMs, permitindo-lhes lidar com tarefas mais complexas, mantendo a sua dimensão mais pequena. Por exemplo, a versão mais recente do SLM Phi-3 tem agora capacidades de imagem digitalizada.
Aplicações mais alargadas à medida que a computação edge cresce:
À medida que a computação edge se torna mais preponderante, os SLMs encontrarão aplicações numa gama mais vasta de campos, respondendo a necessidades diversas e expandindo o seu alcance. A capacidade de processar dados localmente em dispositivos edge abre novas possibilidades para soluções de IA em tempo real e sensíveis ao contexto.
Dar resposta às limitações atuais
Estão a ser desenvolvidos esforços para melhorar a precisão e lidar com diversos idiomas. Ao abordar estas limitações, os investigadores pretendem melhorar o desempenho dos SLMs em diferentes idiomas e contextos, tornando-os mais versáteis e capazes. 
Modelos híbridos e aprendizagem federada:
A aprendizagem federada e os modelos híbridos estão a preparar o caminho para SLMs mais robustos e versáteis. A aprendizagem federada permite que os modelos sejam preparados em vários dispositivos sem partilhar dados confidenciais, aumentando a privacidade e a segurança. Os modelos híbridos, que combinam os pontos fortes de diferentes arquiteturas, oferecem novas oportunidades para otimizar o desempenho e a eficiência.

Estas tendências sublinham o impacto crescente dos pequenos modelos de linguagem para tornar a IA mais acessível, eficaz e adaptável a uma vasta gama de aplicações. À medida que continuam a evoluir, os SLMs tornar-se-ão ferramentas essenciais, impulsionando a inovação em IA em diferentes ambientes e indústrias. 
RECURSOS  

Aprenda novas competências e explore a mais recente tecnologia para programadores. 

Estudantes programadores

Inicie a sua carreira tecnológica

Adquira competências para iniciar a sua carreira em tecnologia e causar um impacto positivo no mundo.
Recursos do Azure

Explore o centro de recursos do Azure

Explore os programas de preparação e certificação do Azure, Perguntas e Respostas, eventos, vídeos e outros recursos para programadores.
Microsoft Learn

Centro de aprendizagem do Azure AI

Obtenha as competências de que necessita para acelerar a implementação de IA em escala.

FAQ

  • Os SLMs foram concebidos para tarefas que exigem menos recursos computacionais. Os LLMs oferecem maiores capacidades, mas exigem muito mais poder de processamento. Os SLMs são ideais para computação edge e ambientes com poucos recursos, ao passo que os LLMs se destacam no processamento de tarefas complexas.

  • Os pequenos modelos de linguagem são ideais para tarefas que requerem eficiência, como a execução de aplicações em ambientes com poucos recursos ou onde as respostas rápidas são cruciais. Também são úteis para tarefas específicas que não requerem as capacidades alargadas de um grande modelo de linguagem.

  • As vantagens de utilizar um SLM em vez de um LLM incluem requisitos computacionais mais baixos, tempos de resposta mais rápidos e adequação para implementação em dispositivos edge. Os SLMs são mais eficientes e económicos para tarefas que não requerem as capacidades abrangentes de um grande modelo de linguagem. Isto torna-os ideais para aplicações em tempo real e ambientes com recursos limitados.