Azure AI Content Safety
Øg sikkerheden for generative AI-programmer med avancerede rækværk til ansvarlig kunstig intelligens
Ingeniører på tilsvarende fuldtidsbasis, der er dedikeret til sikkerhedsinitiativer hos Microsoft.
Partnere med specialiseret sikkerhedsekspertise.
Overholdelsescertificeringer, herunder mere end 50, der er specifikke for globale regioner og lande.
Content Safety-modeller er specifikt oplært og testet på følgende sprog: engelsk, tysk, spansk, japansk, fransk, italiensk, portugisisk og kinesisk. Tjenesten kan også fungere på andre sprog, men kvaliteten kan variere. I alle tilfælde skal du udføre dine egne tests for at sikre, at det fungerer for dit program.
Brugerdefinerede kategorier fungerer i øjeblikket kun godt på engelsk. Du kan bruge andre sprog med dit eget datasæt, men kvaliteten kan variere.
Prompt Shields forbedrer sikkerheden for generative AI-systemer ved at beskytte mod promptinjiceringsangreb:
Registrering af beskyttet materiale til tekst identificerer og blokerer kendt tekstindhold, f.eks. sangtekster, artikler, opskrifter og valgt webindhold, i at blive vist i output, der er genereret af kunstig intelligens.
Registrering af beskyttet materiale til kode registrerer og forhindrer output af kendt kode. Den kontrollerer, om der er resultater i forhold til den offentlige kildekode i GitHub-lagre. Derudover giver den kodereferencefunktion, der drives af GitHub Copilot, udviklere mulighed for at finde lagre til udforskning og registrering af relevant kode.