Trace Id is missing
Passer directement au contenu principal
Azure

Azure AI Sécurité du Contenu

Renforcez la sécurité des applications d’IA générative avec des garde-fous avancés pour une IA responsable
Vue d’ensemble

Créez des garde-fous robustes pour l’IA générative

  • Détectez et bloquez les contenus violents, haineux, à caractère sexuel et relatifs à l’automutilation. Configurez des seuils de gravité pour votre cas d’utilisation spécifique et respectez vos stratégies d’IA responsable.
  • Créez des filtres de contenu uniques adaptés à vos besoins à l’aide de catégories personnalisées. Entraînez rapidement une nouvelle catégorie personnalisée en fournissant des exemples de contenu que vous devez bloquer.
  • Protégez vos applications IA contre les attaques par injection de prompt et les tentatives de jailbreak. Identifiez et atténuez les menaces directes et indirectes avec des boucliers de prompts.
  • Identifiez et corrigez les modèles d’IA générative et assurez-vous que les sorties sont fiables, précises et ancrées dans les données avec la détection de l’ancrage dans la réalité.
  • Identifiez le contenu protégé par des droits d’auteur et fournissez des sources pour le texte et le code préexistants avec la détection de matériel protégé.
Vidéo

Développez des applications IA avec la sécurité intégrée

Détectez et atténuez le contenu dangereux dans les entrées et sorties générées par l’IA et par l’utilisateur, y compris le texte, les images et les médias mixtes, le tout avec Azure AI Sécurité du Contenu.
Cas d’utilisation

Protégez vos applications IA

Sécurité

Sécurité et de conformité intégrées 

Tarification

Tarification flexible pour répondre à vos besoins

Payez uniquement ce que vous utilisez, sans frais initiaux. La tarification du paiement à l'utilisation d’Azure AI Sécurité du Contenu repose sur :
Récits clients

Découvrez comment les clients protègent leurs applications avec Azure AI Sécurité du Contenu

FAQ

Questions fréquentes

  • Les modèles de sécurité du Contenu ont été spécifiquement entraînés et testés dans les langues suivantes : Anglais, allemand, espagnol, japonais, français, italien, portugais et chinois. Le service peut également fonctionner dans d’autres langues, mais la qualité peut varier. Dans tous les cas, vous devez effectuer vos propres tests pour vous assurer qu’il fonctionne pour votre application.
    Actuellement, les catégories personnalisées fonctionnent en anglais uniquement. Vous pouvez utiliser d’autres langues avec votre propre jeu de données, mais la qualité peut varier.
  • Certaines fonctionnalités d’Azure AI Sécurité du Contenu sont disponibles uniquement dans certaines régions. Consultez les fonctionnalités disponibles dans chaque région.
  • Le système surveille quatre catégories de danger : la haine, le sexe, la violence et l’automutilation.
  • Oui, vous pouvez ajuster les seuils de gravité pour chaque filtre de catégorie de danger.
  • Oui, vous pouvez utiliser l’API de catégories personnalisées Azure AI Sécurité du Contenu pour créer vos propres filtres de contenu. En fournissant des exemples, vous pouvez entraîner le filtre à détecter et bloquer du contenu indésirable spécifique à vos catégories personnalisées définies.
  • Les boucliers de prompts renforcent la sécurité des systèmes d’IA générative en se défendant contre les attaques par injection de prompt :
     
    • Attaques par prompt direct (jailbreaks) : Les utilisateurs essaient de manipuler le système IA et de contourner les protocoles de sécurité en créant des prompts qui tentent de modifier les règles système ou d’inciter le modèle à exécuter des actions restreintes.
    • Attaques indirectes : Le contenu tiers, comme des documents ou des e-mails, contient des instructions masquées pour exploiter le système d’IA de manière malveillante, telles que des commandes incorporées qu’une IA peut exécuter sans le savoir.
  • La détection de l’ancrage dans la réalité identifie et corrige les sorties non ancrées des modèles d’IA générative, en veillant à ce qu’elles soient basées sur les supports sources fournis. Cela permet d’empêcher la génération d’informations falsifiées ou fausses. À l’aide d’un modèle de langage personnalisé, la détection de l’ancrage dans la réalité évalue les revendications par rapport aux données sources et atténue les hallucinations de l’IA.
  • La détection de matériel protégé pour le texte identifie et empêche l’affichage dans les sorties générées par l’IA du contenu de texte connu, tel que des paroles, des recettes et du contenu web sélectionné.
    La détection de matériel protégé pour le code détecte et empêche la sortie du code connu. Elle vérifie les correspondances par rapport au code source public dans les référentiels GitHub. En outre, la fonctionnalité de référencement de code avec GitHub Copilot permet aux développeurs de localiser des référentiels pour explorer et découvrir du code pertinent.
  • Le système de filtrage de contenu inclus dans Azure OpenAI Service est optimisé par Azure AI Sécurité du Contenu. Il est conçu pour détecter et empêcher la sortie de contenu dangereux dans les prompts d’entrée et les sorties générées. Il fonctionne avec les modèles principaux, y compris GPT et DALL-E.