Trace Id is missing
Pular para o conteúdo principal
Azure

Segurança de conteúdo do IA do Azure

Aprimore a segurança de aplicativos de IA generativa com barreiras avançadas para uma IA responsável.
Visão geral

Crie proteções robustas para IA generativa

  • Detecte e bloqueie conteúdo de violência, ódio, sexual e de autolesão. Configure limiares de gravidade para o seu caso de uso específico e siga suas políticas de IA responsável.
  • Crie filtros de conteúdo exclusivos, adaptados às suas necessidades, usando categorias personalizadas. Treine rapidamente uma nova categoria personalizada fornecendo exemplos de conteúdo que você precisa bloquear.
  • Proteja seus aplicativos de IA contra ataques de injeção de solicitação e tentativas de jailbreak. Identifique e mitigue ameaças diretas e indiretas com proteções imediatas.
  • Identifique e corrija alucinações da IA generativa e garanta que as saídas sejam confiáveis, precisas e baseadas em dados com a detecção de fundamentação.
  • Identifique conteúdo com direitos autorais e forneça fontes para texto e código preexistentes com a detecção de material protegido.
Vídeo

Desenvolva aplicativos de IA com segurança integrada

Detecte e mitigue conteúdo prejudicial em entradas e saídas geradas por usuários e por IA—incluindo texto, imagens e mídias mistas—tudo com o Azure AI Content Safety.
Casos de uso

Proteja seus aplicativos de IA

Segurança

Segurança e conformidade integradas 

Preços

Preços flexíveis para atender às suas necessidades

Pague apenas pelo que usar—sem custos iniciais. O preço pago conforme o uso do Azure AI Content Safety é baseado em:
Histórias de clientes

Veja como os clientes estão protegendo seus aplicativos com o Azure AI Content Safety.

Perguntas frequentes

Perguntas frequentes

  • Os modelos de Content Safety foram especificamente treinados e testados nos seguintes idiomas: Inglês, alemão, espanhol, japonês, francês, italiano, português e chinês. O serviço pode funcionar em outros idiomas também, mas a qualidade pode variar. Em todos os casos, você deve realizar seus próprios testes para garantir que funciona para sua aplicação.
    Atualmente, as categorias personalizadas funcionam bem apenas em inglês. Você pode usar outros idiomas com seu próprio conjunto de dados, mas a qualidade pode variar.
  • Alguns recursos de Segurança de Conteúdo de IA do Azure só estão disponíveis em determinadas regiões. Veja os recursos disponíveis em cada região.
  • O sistema monitora em quatro categorias de danos: ódio, sexual, violência e automutilação.
  • Sim, você pode ajustar os limites de gravidade para cada filtro de categoria de dano.
  • Sim, você pode usar a API de categorias personalizadas do Azure AI Content Safety para criar seus próprios filtros de conteúdo. Ao fornecer exemplos, você pode treinar o filtro para detectar e bloquear conteúdo indesejado específico para suas categorias personalizadas definidas.
  • Solicitações de proteção aumentam a segurança de sistemas de IA generativa, defendendo contra ataques de injeção de solicitação:
     
    • Ataques diretos de solicitação (jailbreaks): Usuários tentam manipular o sistema de IA e contornar os protocolos de segurança criando solicitações que tentam alterar as regras do sistema ou enganar o modelo para executar ações restritas.
    • Ataques indiretos: Conteúdo de terceiros, como documentos ou emails, contém instruções ocultas para explorar o sistema de IA, como comandos incorporados que a IA pode executar sem saber.
  • A detecção de fundamentação identifica e corrige os resultados sem fundamentação dos modelos de IA generativa, garantindo que eles sejam baseados nos materiais de origem fornecidos. Isso ajuda a prevenir a geração de informações fabricadas ou falsas. Usando um modelo de linguagem personalizado, a detecção de fundamentação avalia as afirmações em relação aos dados de origem e mitiga as alucinações da IA.
  • A detecção de material protegido para texto identifica e bloqueia conteúdos textuais conhecidos, como letras de músicas, artigos, receitas e conteúdos selecionados da web, de aparecerem nas saídas geradas pela IA.
    A detecção de material protegido para código detecta e impede a saída de código conhecido. Ela verifica correspondências com código fonte público em repositórios do GitHub. Além disso, a capacidade de referência de código alimentada pelo GitHub Copilot permite que os desenvolvedores localizem repositórios para explorar e descobrir código relevante.
  • O sistema de filtragem de conteúdo dentro do Serviço OpenAI do Azure é alimentado pela Segurança de Conteúdo da IA do Azure. Ele é projetado para detectar e prevenir a saída de conteúdo prejudicial tanto em solicitações de entrada quanto em respostas geradas. Ele funciona junto aos modelos principais, incluindo o GPT e o DALL-E.
Uma mulher sentada à mesa usando um laptop.
Próximas etapas

Escolha a conta do Azure certa para você

Pague conforme o uso ou experimente o Azure gratuitamente por até 30 dias.
Uma mulher com cabelos curtos e cacheados sorrindo e vestindo uma camisa verde.
Soluções do Azure

Soluções de nuvem do Azure

Resolva seus problemas de negócios com combinações comprovadas dos serviços de nuvem do Azure, bem como exemplos de arquiteturas e documentação.
Um homem de camisa branca usando um laptop.
Hub de Soluções de Negócios

Encontre a solução ideal do Microsoft Cloud

Navegue pelo Hub de Soluções de Negócios da Microsoft para encontrar os produtos e soluções que podem ajudar sua organização a atingir suas metas.