Segurança de conteúdo do IA do Azure
Aprimore a segurança de aplicativos de IA generativa com barreiras avançadas para uma IA responsável.
Os modelos de Content Safety foram especificamente treinados e testados nos seguintes idiomas: Inglês, alemão, espanhol, japonês, francês, italiano, português e chinês. O serviço pode funcionar em outros idiomas também, mas a qualidade pode variar. Em todos os casos, você deve realizar seus próprios testes para garantir que funciona para sua aplicação.
Atualmente, as categorias personalizadas funcionam bem apenas em inglês. Você pode usar outros idiomas com seu próprio conjunto de dados, mas a qualidade pode variar.
Solicitações de proteção aumentam a segurança de sistemas de IA generativa, defendendo contra ataques de injeção de solicitação:
A detecção de material protegido para texto identifica e bloqueia conteúdos textuais conhecidos, como letras de músicas, artigos, receitas e conteúdos selecionados da web, de aparecerem nas saídas geradas pela IA.
A detecção de material protegido para código detecta e impede a saída de código conhecido. Ela verifica correspondências com código fonte público em repositórios do GitHub. Além disso, a capacidade de referência de código alimentada pelo GitHub Copilot permite que os desenvolvedores localizem repositórios para explorar e descobrir código relevante.