Azure AI Sécurité du Contenu
Renforcez la sécurité des applications d’IA générative avec des garde-fous avancés pour une IA responsable
Les modèles de sécurité du Contenu ont été spécifiquement entraînés et testés dans les langues suivantes : Anglais, allemand, espagnol, japonais, français, italien, portugais et chinois. Le service peut également fonctionner dans d’autres langues, mais la qualité peut varier. Dans tous les cas, vous devez effectuer vos propres tests pour vous assurer qu’il fonctionne pour votre application.
Actuellement, les catégories personnalisées fonctionnent en anglais uniquement. Vous pouvez utiliser d’autres langues avec votre propre jeu de données, mais la qualité peut varier.
Les boucliers de prompts renforcent la sécurité des systèmes d’IA générative en se défendant contre les attaques par injection de prompt :
La détection de matériel protégé pour le texte identifie et empêche l’affichage dans les sorties générées par l’IA du contenu de texte connu, tel que des paroles, des recettes et du contenu web sélectionné.
La détection de matériel protégé pour le code détecte et empêche la sortie du code connu. Elle vérifie les correspondances par rapport au code source public dans les référentiels GitHub. En outre, la fonctionnalité de référencement de code avec GitHub Copilot permet aux développeurs de localiser des référentiels pour explorer et découvrir du code pertinent.