Azure AI Content Safety
Bruk kunstig intelligens til å overvåke tekst- og bildeinnhold for sikkerhet.
Overvåk innhold med avanserte Ai-drevne språk- og visuelle modeller
Azure AI Content Safety er en plattform for moderering av innhold, som bruker kunstig intelligens til å holde innholdet trygt. Last bedre nettopplevelser for alle med kraftige modeller for kunstig intelligens til å oppdage støtende eller upassende innhold i tekst og bilder raskt og effektivt.
Språkmodeller analyserer flerspråklig tekst, både i kort og lang form, med en forståelse av kontekst og semantikk
Visuelle modeller utfører bildegjenkjenning og oppdage objekter i bilder ved hjelp av den avanserte Florence-teknologien
Innholdsklassifiserere med kunstig intelligens identifiserer innhold av seksuell, voldelig, hatsk og selvskadende karakter med høyt detaljnivå
Alvorsgradresultater for moderering av innhold indikerer nivået av innholdsrisiko på en skala fra lav til høy
Treff sikre beslutninger om moderering av innhold
Bruk avanserte språk- og visuelle modeller for å oppdage usikkert eller upassende innhold på en nøyaktig måte, og tilordne alvorsgradresultater automatisk i sanntid. Gjør det mulig for bedriften å se gjennom og prioritere flaggede elementer og gripe inn på en veloverveid måte.
Forbedre bruker- og merkesikkerhet på tvers av språk
Støtt merke- og kundesikkerhet globalt. Flerspråklig funksjonalitet i Azure AI Content Safety muliggjør moderering av innhold på engelsk, tysk, spansk, fransk, portugisisk, italiensk og kinesisk.
Bruk kunstig intelligens på en ansvarlig måte
Opprett ansvarlige fremgangsmåter for kunstig intelligens ved å overvåke brukergenerert og AI-generert innhold. Azure OpenAI Service og GitHub Copilot er avhengige av Azure AI Content Safety til å filtrere innhold i brukerforespørsler og svar, slik at modeller for kunstig intelligens brukes på en ansvarlig måte og til deres tiltenkte formål.
Omfattende innebygd sikkerhet og forskriftssamsvar
-
Microsoft investerer mer enn USD 1 milliard årlig i forskning og utvikling på cybersikkerhet.
-
Vi har mer enn 3500 sikkerhetseksperter som bare jobber med datasikkerhet og personvern.
Fleksible forbruksbaserte priser
Prisene for Azure AI Content Safety er basert på en forbruksbasert forbruksmodell
Kom i gang med en gratis Azure-konto
1
2
Etter kreditten kan du gå over til forbruksbasert betaling for å fortsette å utvikle med de samme gratistjenestene. Du betaler bare hvis du bruker mer enn det kostnadsfrie månedlige antallet.
3
Ressurser og dokumentasjon for Azure AI Content Safety
Få kontakt med Azure-fellesskapet
Vanlige spørsmål
-
Azure OpenAI Service bruker Azure AI Content Safety som et innholdsstyringssystem, som fungerer sammen med kjernemodeller for å filtrere innhold. Dette systemet fungerer ved å kjøre både inndataledeteksten og AI-generert innhold gjennom et ensemble av klassifiseringsmodeller, som tar sikte på å oppdage misbruk.
-
Ved å dra nytte av basismodellen Florence, i tillegg til funksjoner for innholdsfiltrering i Azure AI Content Safety, kan Azure AI Vision identifisere om et bilde utløser klassifisering som hat, seksuell, voldelig eller selvskade.
-
I Standard- eller S1-nivået finnes det to typer API-er. For tekst-API-en faktureres tjenesten for mengden tekstposter som sendes til tjenesten. For bilde-API-en faktureres tjenesten for antallet bilder som sendes til tjenesten.
-
En tekstenhet på S1-nivået inneholder opptil 1000 tegn målt etter Unicode-kodepunkter. Hvis en tekstinndata i Content Safety API er mer enn 1000 tegn, teller den som én tekstpost for hver enhet på 1000 tegn. Hvis for eksempel tekstinndata sendt til API-et inneholder 7500 tegn, vil det telle som åtte tekstenheter. Hvis en tekstinndata sendt til API-et inneholder 500 tegn, vil det telle som 1 tekstpost.
-
Bruken stoppes hvis grensen for transaksjoner på gratisnivået nås. Kundene kan ikke overskride grensen i gratisnivået.