Trace Id is missing
Gå till huvudinnehåll
Azure

Azure AI Innehållssäkerhet

Förbättra säkerheten för generativa AI-program med avancerade skyddsräcken för ansvarsfull AI
Översikt

Skapa robusta skyddsräcken för generativ AI

  • Identifiera och blockera våld, hat, sexuellt innehåll och självskadebeteende. Konfigurera tröskelvärden för allvarlighetsgrad för ditt specifika användningsfall och följ dina ansvarsfulla AI-principer.
  • Skapa unika innehållsfilter som är anpassade efter dina behov med hjälp av anpassade kategorier. Träna snabbt en ny anpassad kategori genom att tillhandahålla exempel på innehåll som du behöver blockera.
  • Skydda dina AI-program mot promptinmatningsattacker och jailbreak-försök. Identifiera och minimera både direkta och indirekta hot med prompt shields.
  • Identifiera och korrigera generativa AI-funktioner och se till att utdata är tillförlitliga, korrekta och grundad i data med grundningsdetektering.
  • Hitta upphovsrättsskyddat innehåll och tillhandahåll källor för befintlig text och kod med identifiering av skyddat material.
Video

Utveckla AI-appar med inbyggd säkerhet

Identifiera och minimera skadligt innehåll i användargenererade och AI-genererade indata och utdata, inklusive text, bilder och blandade media, allt med Azure AI Innehållsäkerhet.
Användningsfall

Skydda dina AI-program

Säkerhet

Inbyggd säkerhet och efterlevnad 

Microsoft har valt att investera 20 miljarder USD i cybersäkerhet under fem år.
Vi använder mer än 8 500 experter på säkerhets- och hotinformation i 77 länder.
Azure har en av de största portföljerna för efterlevnadscertifiering i branschen.
Prissättning

Flexibel prissättning för att uppfylla dina behov

Betala bara för det du inte använder – några startkostnader. Azure AI Innehållsäkerhet betala per användning-prissättning baseras på:
Kundberättelser

Se hur kunder skyddar sina program med Azure AI Innehållsäkerhet

Vanliga frågor och svar

Vanliga frågor och svar

  • Modeller för innehållssäkerhet har tränats och testats specifikt på följande språk: Engelska, tyska, spanska, japanska, franska, italienska, portugisiska och kinesiska. Tjänsten kan också fungera på andra språk, men kvaliteten kan variera. I samtliga fall bör du göra din egen testning för att säkerställa att den fungerar för ditt program.
    Anpassade kategorier fungerar för närvarande endast bra på engelska. Du kan använda andra språk med din egen datauppsättning, men kvaliteten kan variera.
  • Vissa Azure AI Innehållsäkerhet-funktioner är bara tillgängliga i vissa regioner. Se de funktioner som är tillgängliga i varje region.
  • Systemet övervakar fyra skadekategorier: hat, sexuellt innehåll, våld och självskadebeteende.
  • Ja, du kan justera tröskelvärden för allvarlighetsgrad för varje skadekategorifilter.
  • Ja, du kan använda Azure AI Innehållsäkerhet API för anpassade kategorier för att skapa dina egna innehållsfilter. Genom att tillhandahålla exempel kan du träna filtret att identifiera och blockera oönskat innehåll som är specifikt för dina definierade anpassade kategorier.
  • Prompt shields förbättrar säkerheten för generativa AI-system genom att skydda mot promptinmatningsattacker:
     
    • Direkta promptattacker (jailbreaks): Användare försöker manipulera AI-systemet och kringgå säkerhetsprotokoll genom att skapa uppmaningar som försöker ändra systemregler eller lura modellen att utföra begränsade åtgärder.
    • Indirekta attacker: Innehåll från tredje part, t.ex. dokument eller e-postmeddelanden, innehåller dolda instruktioner för att utnyttja AI-systemet, till exempel inbäddade kommandon som AI inte kan köra.
  • Grundavkänning identifierar och korrigerar ogrundade utdata från generativa AI-modeller, vilket säkerställer att de baseras på tillhandahållet källmaterial. Detta bidrar till att förhindra generering av fabricerad eller falsk information. Med hjälp av en anpassad språkmodell utvärderar grundidentifieringen påståenden mot källdata och minskar AI-hallucinationer.
  • Identifiering av skyddat material för text identifierar och blockerar känt textinnehåll, till exempel texter, artiklar, recept och valt webbinnehåll, från att visas i AI-genererade utdata.
    Identifiering av skyddat material för kod identifierar och förhindrar utdata från känd kod. Den söker efter matchningar mot offentlig källkod i GitHub-lagringsplatser. Dessutom gör kodreferensfunktionen som drivs av GitHub Copilot att utvecklare kan hitta lagringsplatser för att utforska och identifiera relevant kod.
  • Innehållsfiltreringssystemet i Azure OpenAI Service drivs av Azure AI Innehållsäkerhet. Den är utformad för att identifiera och förhindra utdata från skadligt innehåll i både indataprompter och slutförande av utdata. Det fungerar tillsammans med kärnmodeller, inklusive GPT och DALL-E.