Share via


Guia de início rápido: Azure AI Content Safety Studio

Neste início rápido, comece a usar o serviço de Segurança de Conteúdo do Azure AI usando o Content Safety Studio em seu navegador.

Atenção

Alguns dos exemplos de conteúdo fornecidos pelo Content Safety Studio podem ser ofensivos. As imagens de amostra são desfocadas por padrão. Aconselha-se a discrição do utilizador.

Pré-requisitos

Analisar conteúdo de texto

A página Moderar conteúdo de texto permite que você experimente rapidamente a moderação de texto.

Captura de tela do painel Analisar texto.

  1. Selecione o painel Moderar conteúdo de texto.
  2. Adicione texto ao campo de entrada ou selecione texto de exemplo nos painéis da página.

    Gorjeta

    Tamanho e granularidade do texto

    O comprimento máximo padrão para envios de texto é de 10 mil caracteres.

  3. Selecione Executar teste.

O serviço retorna todas as categorias que foram detetadas, com o nível de gravidade para cada uma (0-Seguro, 2-Baixo, 4-Médio, 6-Alto). Ele também retorna um resultado binário Aceito/Rejeitado , com base nos filtros que você configurar. Use a matriz na guia Configurar filtros à direita para definir seus níveis de gravidade permitidos/proibidos para cada categoria. Em seguida, você pode executar o texto novamente para ver como o filtro funciona.

A guia Usar lista de bloqueio à direita permite criar, editar e adicionar uma lista de bloqueio ao fluxo de trabalho de moderação. Se você tiver uma lista de bloqueio habilitada ao executar o teste, obterá um painel de deteção de lista de bloqueio em Resultados. Ele relata todas as correspondências com a lista de bloqueio.

Detetar ataques de entrada do usuário

O painel Prompt Shields permite que você experimente a deteção de risco de entrada do usuário. Detetar Prompts do Usuário projetados para provocar o modelo de IA Generativa a exibir comportamentos que ele foi treinado para evitar ou quebrar as regras definidas na Mensagem do Sistema. Estes ataques podem variar desde uma intrincada encenação até uma subversão subtil do objetivo de segurança.

Captura de tela do estúdio de segurança de conteúdo com o painel de deteção de risco de entrada do usuário selecionado.

  1. Selecione o painel Avisar escudos .
  2. Selecione um texto de exemplo na página ou insira seu próprio conteúdo para teste. Você também pode carregar um arquivo CSV para fazer um teste em lote.
  3. Selecione Executar teste.

O serviço retorna o sinalizador de risco e o tipo para cada amostra.

Para obter mais informações, consulte o guia conceitual do Prompt Shields.

Analisar conteúdo de imagem

A página Moderar conteúdo de imagem permite que você experimente rapidamente a moderação de imagens.

Captura de tela do painel Analisar imagem.

  1. Selecione o painel Moderar conteúdo da imagem.
  2. Selecione uma imagem de exemplo nos painéis da página ou carregue a sua própria imagem. O tamanho máximo para envio de imagens é de 4 MB, e as dimensões da imagem devem estar entre 50 x 50 pixels e 2.048 x 2.048 pixels. As imagens podem estar nos formatos JPEG, PNG, GIF, BMP, TIFF ou WEBP.
  3. Selecione Executar teste.

O serviço retorna todas as categorias que foram detetadas, com o nível de gravidade para cada uma (0-Seguro, 2-Baixo, 4-Médio, 6-Alto). Ele também retorna um resultado binário Aceito/Rejeitado , com base nos filtros que você configurar. Use a matriz na guia Configurar filtros à direita para definir seus níveis de gravidade permitidos/proibidos para cada categoria. Em seguida, você pode executar o texto novamente para ver como o filtro funciona.

Ver e exportar código

Você pode usar o recurso Exibir código na página Analisar conteúdo de texto ou Analisar conteúdo de imagem para exibir e copiar o código de exemplo, que inclui configuração para filtragem de gravidade, listas de bloqueio e funções de moderação. Em seguida, você pode implantar o código do seu lado.

Captura de ecrã do código de visualização.

Monitorizar a atividade online

A página Monitorar atividade online permite visualizar o uso e as tendências da API.

Captura de tela do painel Monitoramento.

Você pode escolher qual tipo de mídia monitorar. Você também pode especificar o intervalo de tempo que deseja verificar selecionando Mostrar dados para o último __.

No gráfico Taxa de rejeição por categoria, você também pode ajustar os limites de gravidade para cada categoria.

Captura de ecrã da tabela de limiares de gravidade.

Você também pode editar listas de bloqueio se quiser alterar alguns termos, com base no gráfico Top 10 de termos bloqueados.

Gerencie seu recurso

Para exibir detalhes do recurso, como nome e nível de preço, selecione o ícone Configurações no canto superior direito da página inicial do Content Safety Studio e selecione a guia Recurso . Se você tiver outros recursos, você pode alternar recursos aqui também.

Captura de ecrã de Gerir Recurso.

Clean up resources (Limpar recursos)

Se quiser limpar e remover um recurso de serviços de IA do Azure, você pode excluir o recurso ou grupo de recursos. A exclusão do grupo de recursos também exclui quaisquer outros recursos associados a ele.

Próximos passos

Em seguida, comece a usar o Azure AI Content Safety por meio das APIs REST ou de um SDK de cliente, para que você possa integrar perfeitamente o serviço ao seu aplicativo.