Trace Id is missing
Gå til hovedindholdet
Azure

Azure AI Content Safety

Øg sikkerheden for generative AI-programmer med avancerede rækværk til ansvarlig kunstig intelligens
Oversigt

Byg robuste rækværk til generativ kunstig intelligens

  • Registrer og bloker indhold med vold, had, selvskade og af seksuel karakter. Konfigurer alvorsgradstærskler for din specifikke use case, og overhold dine ansvarlige politikker for kunstig intelligens.
  • Opret unikke indholdsfiltre, der er skræddersyet til dine behov, ved hjælp af brugerdefinerede kategorier. Oplær hurtigt en ny brugerdefineret kategori ved at give eksempler på indhold, du skal blokere.
  • Beskyt dine AI-programmer mod promptinjektionsangreb og jailbreak-forsøg. Identificer og afhjælp både direkte og indirekte trusler med Prompt Shields.
  • Identificer og ret generative AI-hallucinationer, og sørg for, at output er pålidelige, nøjagtige og baseret på data med registrering af jordforbindelse.
  • Find indhold, der er ophavsretligt beskyttet, og angiv kilder til eksisterende tekst og kode med registrering af beskyttet materiale.
Video

Udvikl AI-apps med indbygget sikkerhed

Registrer og afhjælp skadeligt indhold i brugergenererede og AI-genererede input og output – herunder tekst, billeder og blandede medier – alt sammen med Azure AI Content Safety.
Use cases

Beskyt dine AI-programmer

Sikkerhed

Indbygget sikkerhed og overholdelse af regler og standarder 

Microsoft har forpligtet sig til at investere 20 milliarder USD i cybersikkerhed over fem år.
Vi har ansat mere end 8.500 eksperter i sikkerhed og oplysninger om trusler på tværs af 77 lande/områder.
Prisfastsættelse

Fleksible priser, der opfylder dine behov

Betal kun for det, du bruger – uden startomkostninger. Priser for Azure AI Content Safety betalt efter forbrug er baseret på:
Kundehistorier

Se, hvordan kunderne beskytter deres programmer med Azure AI Content Safety

Ofte stillede spørgsmål

Ofte stillede spørgsmål

  • Content Safety-modeller er specifikt oplært og testet på følgende sprog: Engelsk, tysk, spansk, japansk, fransk, italiensk, portugisisk og kinesisk. Tjenesten kan også fungere på andre sprog, men kvaliteten kan variere. I alle tilfælde skal du udføre dine egne tests for at sikre, at det fungerer for dit program.
    Brugerdefinerede kategorier fungerer i øjeblikket kun godt på engelsk. Du kan bruge andre sprog med dit eget datasæt, men kvaliteten kan variere.
  • Nogle Azure AI Content Safety-funktioner er kun tilgængelige i visse områder. Se de funktioner, der er tilgængelige i hvert område.
  • Systemet overvåger på tværs af fire skadeskategorier: had, seksuel, vold og selvskade.
  • Ja, du kan justere alvorsgradstærskler for hvert filter for skadeskategori.
  • Ja, du kan bruge API'en med brugerdefinerede kategorier til Azure AI Content Safety til at oprette dine egne indholdsfiltre. Ved at angive eksempler kan du oplære filteret i at registrere og blokere uønsket indhold, der er specifikt for dine definerede brugerdefinerede kategorier.
  • Prompt Shields forbedrer sikkerheden for generative AI-systemer ved at beskytte mod promptinjiceringsangreb:
     
    • Direkte promptangreb (jailbreaks): Brugere forsøger at manipulere AI-systemet og omgå sikkerhedsprotokoller ved at oprette prompter, der forsøger at ændre systemregler eller narre modellen til at udføre begrænsede handlinger.
    • Indirekte angreb: Tredjepartsindhold, f.eks. dokumenter eller mails, indeholder skjulte instruktioner til at udnytte AI-systemet, f.eks. integrerede kommandoer, som en AI muligvis ikke udfører.
  • Registrering af jordforbindelse identificerer og retter output fra generative AI-modeller uden jordforbindelse, hvilket sikrer, at de er baseret på de leverede kildematerialer. Dette hjælper med at forhindre generering af fabrikerede eller falske oplysninger. Ved hjælp af en brugerdefineret sprogmodel evaluerer registrering af jordforbindelse krav i forhold til kildedata og afhjælper AI-angreb.
  • Registrering af beskyttet materiale til tekst identificerer og blokerer kendt tekstindhold, f.eks. sangtekster, artikler, opskrifter og valgt webindhold, i at blive vist i output, der er genereret af kunstig intelligens.
    Registrering af beskyttet materiale til kode registrerer og forhindrer output af kendt kode. Den kontrollerer, om der er resultater i forhold til den offentlige kildekode i GitHub-lagre. Derudover giver den kodereferencefunktion, der drives af GitHub Copilot, udviklere mulighed for at finde lagre til udforskning og registrering af relevant kode.
  • Indholdsfiltreringssystemet i Azure OpenAI Service leveres af Azure AI Content Safety. Det er designet til at registrere og forhindre output af skadeligt indhold i både inputprompter og outputfuldførelser. Den fungerer sammen med kernemodeller, herunder GPT og DALL-E.
En kvinde sidder ved et bord og bruger en bærbar computer.
Næste trin

Vælg den Azure-konto, der passer til dig

Pay as you go (betal efter forbrug), eller prøv Azure gratis i op til 30 dage.
En kvinde med kort krøllet hår smiler iført en grøn skjorte.
Azure-løsninger

Azure cloudløsninger

Løs dine virksomhedsproblemer med afprøvede kombinationer af Azure-cloudtjenester samt eksempler på arkitekturer og dokumentation.
En mand iført en hvid skjorte er i færd med at bruge en bærbar computer.
Hub til virksomhedsløsninger

Find den rette Microsoft Cloud-løsning

Gennemse Microsofthubben for virksomhedsløsninger for at finde de produkter og løsninger, der kan hjælpe din organisation med at nå sine mål.