Trace Id is missing
Overslaan naar hoofdinhoud
Azure

Azure AI Content Veiligheid

Verbeter de veiligheid van generatieve AI-toepassingen met geavanceerde richtlijnen voor verantwoordelijke AI
Overzicht

Robuuste kaders voor generatieve AI bouwen

  • Detecteer en blokkeer inhoud met geweld, haat, seksuele inhoud en zelfbeschadiging. Configureer ernstdrempels voor je specifieke use case en houd je aan je verantwoordelijke AI-beleid.
  • Maak unieke inhoudsfilters die zijn afgestemd op jouw vereisten met behulp van aangepaste categorieën. Train snel een nieuwe aangepaste categorie door voorbeelden te geven van inhoud die je moet blokkeren.
  • Bescherm je AI-toepassingen tegen promptinjectieaanvallen en jailbreak-pogingen. Identificeer en beperk zowel directe als indirecte bedreigingen met prompt shields.
  • Identificeer en corrigeer generatieve AI-hallucinaties en zorg ervoor dat de uitkomsten betrouwbaar, nauwkeurig en gebaseerd zijn op gegevens met detectie van de gronding.
  • Maak auteursrechtelijk beschermde inhoud vast en geef bronnen op voor bestaande tekst en code met beveiligde materiaaldetectie.
Video

AI-apps ontwikkelen met ingebouwde veiligheid

Detecteer en beperk schadelijke inhoud in door de gebruiker gegenereerde en door AI gegenereerde invoer en uitvoer, inclusief tekst, afbeeldingen en gemengde media, met Azure AI Content Veiligheid.
Use cases

Beveilig je AI-toepassingen

Beveiliging

Ingebouwde veiligheid en compliance 

Microsoft heeft toegezegd USD 20 miljard te investeren in cyberbeveiliging gedurende een periode van vijf jaar.
We hebben meer dan 8500 experts op het gebied van beveiliging en bedreigingsinformatie in dienst in 77 landen.
Azure heeft een van de grootste portfolio's voor nalevingscertificering in de branche.
Prijzen

Flexibele prijzen om aan je behoeften te voldoen

Betaal alleen voor wat je gebruikt, zonder kosten vooraf. Prijzen voor betalen per gebruik voor Azure AI Content Veiligheid zijn gebaseerd op:
Klantverhalen

Bekijk hoe klanten hun toepassingen beschermen met Azure AI Content Safety

Veelgestelde vragen

Veelgestelde vragen

  • Content Safety-modellen zijn specifiek getraind en getest in de volgende talen: Engels, Duits, Spaans, Japans, Frans, Italiaans, Portugees en Chinees. De service kan ook in andere talen werken, maar de kwaliteit kan variëren. In alle gevallen moet je je eigen tests uitvoeren om ervoor te zorgen dat het werkt voor jouw toepassing.
    Aangepaste categorieën werken momenteel alleen goed in het Engels. Je kunt andere talen gebruiken met je eigen gegevensset, maar de kwaliteit kan variëren.
  • Sommige Azure AI Content Veiligheid-functies zijn alleen beschikbaar in bepaalde regio's. Bekijk de functies die beschikbaar zijn in elke regio.
  • Het systeem controleert op vier categorieën van schade: haat, seksueel misbruik, geweld en zelfbeschadiging.
  • Ja, je kunt de drempelwaarden voor ernst aanpassen voor elk filter voor schadelijke categorieën.
  • Ja, je kunt de API voor aangepaste categorieën voor Azure AI Content Veiligheid gebruiken om je eigen inhoudsfilters te maken. Door voorbeelden op te geven, kun je het filter trainen om ongewenste inhoud te detecteren en te blokkeren die specifiek is voor jouw gedefinieerde aangepaste categorieën.
  • Prompt shields verbeteren de beveiliging van generatieve AI-systemen door bescherming tegen promptinjectieaanvallen:
     
    • Directe promptaanvallen (jailbreaks): Gebruikers proberen het AI-systeem te manipuleren en veiligheidsprotocollen te omzeilen door prompts te maken die proberen systeemregels te wijzigen of het model te misleiden om beperkte acties uit te voeren.
    • Indirecte aanvallen: Inhoud van derden, zoals documenten of e-mailberichten, bevat verborgen instructies voor misbruik van het AI-systeem, zoals ingesloten opdrachten die een AI onbewust kan uitvoeren.
  • Met Groundedness Detection worden de ongegronde uitkomsten van generatieve AI-modellen geïdentificeerd en gecorrigeerd, zodat ze gebaseerd zijn op de verstrekte bronmaterialen. Dit helpt bij het voorkomen van het genereren van gefabriceerde of onjuiste informatie. Met behulp van een aangepast taalmodel evalueert groundedness detection claims ten opzichte van brongegevens en worden AI-hallucinaties verminderd.
  • Detectie van beveiligd materiaal voor tekst identificeert en blokkeert bekende tekstinhoud, zoals songteksten, artikelen, recepten en geselecteerde webinhoud, en wordt niet weergegeven in door AI gegenereerde uitvoer.
    Detectie van beveiligd materiaal voor code detecteert en voorkomt de uitvoer van bekende code. Er wordt gecontroleerd op overeenkomsten met openbare broncode in GitHub-opslagplaatsen. Bovendien stelt de codeverwijzingsfunctie van GitHub Copilot ontwikkelaars in staat om opslagplaatsen te vinden waar ze relevante code kunnen verkennen en ontdekken.
  • Het inhoudsfiltersysteem in de Azure OpenAI-service wordt mogelijk gemaakt met Azure AI Content Veiligheid. Het is ontworpen om de uitvoer van schadelijke inhoud in zowel invoerprompts als uitvoervoltooiingen te detecteren en te voorkomen. Het werkt samen met kernmodellen, waaronder GPT en DALL-E.