Trace Id is missing
Avançar para o conteúdo principal
Azure

Segurança de conteúdo de IA do Azure

Melhore a segurança das aplicações de IA generativa com proteções avançadas para IA responsável
Descrição geral

Crie proteções robustas para IA generativa

  • Detete e bloqueie conteúdo de violência, ódio, teor sexual e autoflagelação. Configure limiares de gravidade para o seu caso de utilização específico e cumpra as suas políticas de IA responsável.
  • Crie filtros de conteúdo únicos ajustados aos seus requisitos com categorias personalizadas. Prepare rapidamente uma nova categoria personalizada ao fornecer exemplos de conteúdo que precisa de bloquear.
  • Proteja as suas aplicações de IA contra ataques de injeção de pedidos e tentativas de desbloqueio por jailbreak. Identifique e mitigue ameaças diretas e indiretas com escudos de pedidos.
  • Identifique e corrija alucinações de IA generativa e garanta que as saídas são fiáveis, precisas e baseadas em dados com deteção de verdade.
  • Identifique conteúdo protegido por direitos de autor e forneça fontes para texto e código pré-existentes com deteção de material protegido.
Vídeo

Desenvolva aplicações de IA com segurança incorporada

Detete e mitigue conteúdo prejudicial em entradas e saídas geradas pelo utilizadores e por IA, incluindo texto, imagens e multimédia mista, tudo com a Segurança de conteúdo de IA do Azure.
Casos de utilização

Salvaguarde as suas aplicações de IA

Segurança

Segurança e conformidade incorporadas 

A Microsoft comprometeu-se a investir 20 mil milhões USD em cibersegurança ao longo de cinco anos.
Empregamos mais de 8500 especialistas em segurança e informações sobre ameaças em 77 países/regiões.
O Azure tem um dos maiores portefólios de certificação de conformidade na indústria.
Preços

Preços flexíveis para satisfazer as suas necessidades

Pague apenas pelo que utilizar, sem custos iniciais. Os preços pay as you go da Segurança de conteúdo de IA do Azure baseiam-se em:
Histórias de clientes

Veja como os clientes estão a proteger as suas aplicações com a Segurança de conteúdo de IA do Azure

FAQ

Perguntas frequentes

  • Os modelos de Segurança de Conteúdo foram especificamente preparados e testados nos seguintes idiomas: Inglês, alemão, espanhol, japonês, francês, italiano, português e chinês. O serviço também pode funcionar noutros idiomas, mas a qualidade pode variar. Em todos os casos, deve fazer os seus próprios testes para garantir que funciona para a sua aplicação.
    Atualmente, as categorias personalizadas funcionam bem apenas em inglês. Pode utilizar outros idiomas com o seu próprio conjunto de dados, mas a qualidade pode variar.
  • Algumas funcionalidades da Segurança de conteúdo de IA do Azure só estão disponíveis em determinadas regiões. Veja as funcionalidades disponíveis em cada região.
  • O sistema monitoriza em quatro categorias de danos: ódio, teor sexual, violência e autoflagelação.
  • Sim, pode ajustar os limiares de gravidade para cada filtro de categoria de dano.
  • Sim, pode utilizar a API de categorias personalizadas da Segurança de conteúdo de IA do Azure para criar os seus próprios filtros de conteúdo. Ao fornecer exemplos, pode preparar o filtro para detetar e bloquear conteúdo indesejável específico das categorias personalizadas definidas por si.
  • Os escudos de pedidos melhoram a segurança dos sistemas de IA generativa ao defenderem contra ataques de injeção de pedidos:
     
    • Ataques de pedidos diretos (jailbreaks): Os utilizadores tentam manipular o sistema de IA e contornar protocolos de segurança ao criar pedidos que tentam alterar as regras do sistema ou levar o modelo a executar ações restritas.
    • Ataques indiretos: Conteúdo de terceiros, como documentos ou e-mails, contêm instruções ocultas para explorar o sistema de IA, como comandos incorporados que uma IA pode executar involuntariamente.
  • A deteção de verdade identifica e corrige as saídas sem fundamento dos modelos de IA generativa, garantindo que se baseiam nos materiais de origem fornecidos. Isto ajuda a impedir a geração de informações inventadas ou falsas. Ao utilizar um modelo de linguagem personalizado, a deteção de verdade avalia as afirmações em relação aos dados de origem e mitiga as alucinações de IA.
  • A deteção de material protegido para texto identifica e bloqueia conteúdo de texto conhecido, como letras, artigos, receitas e conteúdo Web selecionado, para não aparecer em saídas geradas por IA.
    A deteção de material protegido para código deteta e impede a saída de código conhecido. Verifica se há correspondências com o código fonte público em repositórios do GitHub. Além disso, a capacidade de referência de código possibilitada pelo GitHub Copilot permite aos programadores localizar repositórios para explorar e descobrir código relevante.
  • O sistema de filtragem de conteúdo no Azure OpenAI Service é alimentado pela Segurança de conteúdo de IA do Azure. Foi concebido para detetar e impedir a saída de conteúdo prejudicial em pedidos de entrada e conclusão de saída. Funciona juntamente com modelos principais, incluindo GPT e DALL-E.
Uma mulher sentada a uma mesa a utilizar um computador portátil.
Próximos passos

Escolha a conta do Azure certa para si

Utilize a opção crédito pré-pago ou experimente o Azure gratuitamente durante até 30 dias.
Uma mulher com cabelo encaracolado curto a sorrir com uma camisa verde.
Soluções do Azure

Soluções na cloud do Azure

Resolva os problemas da sua empresa com combinações comprovadas de serviços cloud do Azure, bem como com arquiteturas de exemplo e documentação.
Um homem com uma camisa branca a utilizar um portátil.
Centro de Soluções Empresariais

Encontre a solução certa da Microsoft Cloud

Navegue no Microsoft Business Solutions Hub para encontrar os produtos e soluções que podem ajudar a sua organização a atingir os seus objetivos.