Azure AI Innehållssäkerhet
Förbättra säkerheten för generativa AI-program med avancerade skyddsräcken för ansvarsfull AI
Modeller för innehållssäkerhet har tränats och testats specifikt på följande språk: Engelska, tyska, spanska, japanska, franska, italienska, portugisiska och kinesiska. Tjänsten kan också fungera på andra språk, men kvaliteten kan variera. I samtliga fall bör du göra din egen testning för att säkerställa att den fungerar för ditt program.
Anpassade kategorier fungerar för närvarande endast bra på engelska. Du kan använda andra språk med din egen datauppsättning, men kvaliteten kan variera.
Prompt shields förbättrar säkerheten för generativa AI-system genom att skydda mot promptinmatningsattacker:
Identifiering av skyddat material för text identifierar och blockerar känt textinnehåll, till exempel texter, artiklar, recept och valt webbinnehåll, från att visas i AI-genererade utdata.
Identifiering av skyddat material för kod identifierar och förhindrar utdata från känd kod. Den söker efter matchningar mot offentlig källkod i GitHub-lagringsplatser. Dessutom gör kodreferensfunktionen som drivs av GitHub Copilot att utvecklare kan hitta lagringsplatser för att utforska och identifiera relevant kod.