Delen via


QuickStart: Tekstinhoud analyseren

Ga aan de slag met content safety studio, REST API of client-SDK's om eenvoudige tekstbeheer uit te voeren. De Azure AI Content Safety-service biedt ai-algoritmen voor het markeren van ongewenst inhoud. Volg deze stappen om het uit te proberen.

Notitie

De voorbeeldgegevens en code kunnen aanstootgevende inhoud bevatten. Gebruikers discretie wordt geadviseerd.

Vereisten

  • Een Azure-abonnement - Een gratis abonnement maken
  • Zodra u uw Azure-abonnement hebt, maakt u een Content Safety-resource in Azure Portal om uw sleutel en eindpunt op te halen. Voer een unieke naam in voor uw resource, selecteer uw abonnement en selecteer een resourcegroep, ondersteunde regio (zie Beschikbaarheid van regio) en ondersteunde prijscategorie. Selecteer vervolgens Maken.
    • Het implementeren van de resource duurt enkele minuten. Nadat deze is voltooid, gaat u naar de resource. Selecteer in het linkerdeelvenster onder Resourcebeheer de optie Abonnementssleutel en Eindpunt. Het eindpunt en een van de sleutels worden gebruikt om API's aan te roepen.
  • cURL geïnstalleerd

Inhoud van tekst analyseren

In de volgende sectie wordt een voorbeeldaanvraag met cURL beschreven. Plak de onderstaande opdracht in een teksteditor en breng de volgende wijzigingen aan.

  1. Vervang door <endpoint> de eindpunt-URL die is gekoppeld aan uw resource.
  2. Vervang door <your_subscription_key> een van de sleutels die bij uw resource worden geleverd.
  3. Vervang desgewenst het "text" veld in de hoofdtekst door uw eigen tekst die u wilt analyseren.

    Tip

    Tekstgrootte en granulariteit

    De standaard maximumlengte voor tekstinzendingen is 10.000 tekens.

curl --location --request POST '<endpoint>/contentsafety/text:analyze?api-version=2023-10-01' \
--header 'Ocp-Apim-Subscription-Key: <your_subscription_key>' \
--header 'Content-Type: application/json' \
--data-raw '{
  "text": "I hate you",
  "categories": [
   "Hate","Sexual","SelfHarm","Violence"
  ]
   "blocklistNames": [
      "string"
    ],
   "haltOnBlocklistHit": true,
   "outputType": "FourSeverityLevels"
}'

De onderstaande velden moeten worden opgenomen in de URL:

Naam Vereist Beschrijving Type
API-versie Vereist Dit is de API-versie die moet worden gecontroleerd. De huidige versie is: api-version=2023-10-01. Voorbeeld: <endpoint>/contentsafety/text:analyze?api-version=2023-10-01 String

De parameters in de aanvraagbody worden gedefinieerd in deze tabel:

Naam Vereist Beschrijving Type
tekst Vereist Dit is de onbewerkte tekst die moet worden gecontroleerd. Andere niet-ascii-tekens kunnen worden opgenomen. String
Categorieën Optioneel Dit wordt verondersteld een matrix met categorienamen te zijn. Zie de handleiding Harm-categorieën voor een lijst met beschikbare categorienamen. Als er geen categorieën zijn opgegeven, worden alle vier de categorieën gebruikt. We gebruiken meerdere categorieën om scores in één aanvraag op te halen. String
blocklistNames Optioneel Naam van tekstbloklijst. Alleen ondersteuning voor de volgende tekens: 0-9 A-Z a-z - . _ ~. U kunt hier meerdere lijstnamen toevoegen. Matrix
haltOnBlocklistHit Optioneel Wanneer dit is ingesteld true, worden verdere analyses van schadelijke inhoud niet uitgevoerd in gevallen waarin bloklijsten worden bereikt. Wanneer dit is ingesteld false, worden alle analyses van schadelijke inhoud uitgevoerd, ongeacht of er wel of geen bloklijsten worden bereikt. Booleaanse waarde
outputType Optioneel "FourSeverityLevels" of "EightSeverityLevels". De uitvoer ernst in vier of acht niveaus kan de waarde zijn 0,2,4,6 of 0,1,2,3,4,5,6,7. String

Zie de volgende voorbeeldtekst van de aanvraag:

{
  "text": "I hate you",
  "categories": [
   "Hate","Sexual","SelfHarm","Violence"
  ],
  "blocklistNames": [
    "array"
  ],
  "haltOnBlocklistHit": false,
  "outputType": "FourSeverityLevels"
}

Open een opdrachtpromptvenster, plak de bewerkte cURL-opdracht en voer deze uit.

Uitvoer

De resultaten van tekstbeheer worden weergegeven als JSON-gegevens in de console-uitvoer. Voorbeeld:

{
  "blocklistsMatch": [
    {
      "blocklistName": "string",
      "blocklistItemId": "string",
      "blocklistItemText": "string"
    }
  ],
  "categoriesAnalysis": [
        {
            "category": "Hate",
            "severity": 2
        },
        {
            "category": "SelfHarm",
            "severity": 0
        },
        {
            "category": "Sexual",
            "severity": 0
        },
        {
            "category": "Violence",
            "severity": 0
  ]
}

De JSON-velden in de uitvoer worden hier gedefinieerd:

Name Omschrijving Type
categoriesAnalysis Elke uitvoerklasse die de API voorspelt. Classificatie kan meerdere labels hebben. Wanneer een tekstvoorbeeld bijvoorbeeld wordt uitgevoerd via het model voor tekstbeheer, kan dit worden geclassificeerd als zowel seksuele inhoud als geweld. Categorieën schade String
Ernst Hoe hoger de ernst van invoerinhoud, hoe groter deze waarde is. Geheel getal

Referentiedocumentatie | Broncode van bibliotheek | Pakket (NuGet) | Voorbeelden

Vereisten

  • Een Azure-abonnement - Een gratis abonnement maken
  • De Visual Studio IDE waarvoor .NET-desktopontwikkeling is ingeschakeld. Of als u niet van plan bent om Visual Studio IDE te gebruiken, hebt u de huidige versie van .NET Core nodig.
  • Zodra u uw Azure-abonnement hebt, maakt u een Content Safety-resource in Azure Portal om uw sleutel en eindpunt op te halen. Voer een unieke naam in voor uw resource, selecteer uw abonnement en selecteer een resourcegroep, ondersteunde regio (zie Beschikbaarheid van regio) en ondersteunde prijscategorie. Selecteer vervolgens Maken.
    • Het implementeren van de resource duurt enkele minuten. Nadat deze is voltooid, gaat u naar de resource. Selecteer in het linkerdeelvenster onder Resourcebeheer de optie Abonnementssleutel en Eindpunt. Het eindpunt en een van de sleutels worden gebruikt om API's aan te roepen.

Toepassing instellen

Maak een nieuwe C#-toepassing.

Open Visual Studio en selecteer onder Aan de slag een nieuw project maken. Stel de sjabloonfilters in op C#/Alle platforms/console. Selecteer Console-app (opdrachtregeltoepassing die kan worden uitgevoerd op .NET in Windows, Linux en macOS) en kies Volgende. Werk de projectnaam bij naar ContentSafetyQuickstart en kies Volgende. Selecteer .NET 6.0 of hoger en kies Maken om het project te maken.

De client-SDK installeren

Nadat u een nieuw project hebt gemaakt, installeert u de client-SDK door met de rechtermuisknop op de projectoplossing in Solution Explorer te klikken en NuGet-pakketten beheren te selecteren. Selecteer in Package Manager dat wordt geopend de optie Bladeren en zoek naar Azure.AI.ContentSafety. Selecteer Installeren.

Omgevingsvariabelen maken

In dit voorbeeld schrijft u uw referenties naar omgevingsvariabelen op de lokale computer waarop de toepassing wordt uitgevoerd.

Tip

Neem de sleutel niet rechtstreeks op in uw code en plaats deze nooit openbaar. Zie het beveiligingsartikel over Azure AI-services voor meer verificatieopties, zoals Azure Key Vault.

Als u de omgevingsvariabele voor uw sleutel en eindpunt wilt instellen, opent u een consolevenster en volgt u de instructies voor uw besturingssysteem en ontwikkelomgeving.

  1. Als u de CONTENT_SAFETY_KEY omgevingsvariabele wilt instellen, vervangt u deze door YOUR_CONTENT_SAFETY_KEY een van de sleutels voor uw resource.
  2. Als u de CONTENT_SAFETY_ENDPOINT omgevingsvariabele wilt instellen, vervangt YOUR_CONTENT_SAFETY_ENDPOINT u het eindpunt voor uw resource.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'

Nadat u de omgevingsvariabelen hebt toegevoegd, moet u mogelijk alle actieve programma's die de omgevingsvariabelen lezen, met inbegrip van het consolevenster, opnieuw opstarten.

Inhoud van tekst analyseren

Open vanuit de projectmap het Program.cs-bestand dat u eerder hebt gemaakt. Plak de volgende code:

using System;
using Azure.AI.ContentSafety;

namespace Azure.AI.ContentSafety.Dotnet.Sample
{
  class ContentSafetySampleAnalyzeText
  {
    public static void AnalyzeText()
    {
      // retrieve the endpoint and key from the environment variables created earlier
      string endpoint = Environment.GetEnvironmentVariable("CONTENT_SAFETY_ENDPOINT");
      string key = Environment.GetEnvironmentVariable("CONTENT_SAFETY_KEY");

      ContentSafetyClient client = new ContentSafetyClient(new Uri(endpoint), new AzureKeyCredential(key));

      string text = "Your input text";

      var request = new AnalyzeTextOptions(text);

      Response<AnalyzeTextResult> response;
      try
      {
          response = client.AnalyzeText(request);
      }
      catch (RequestFailedException ex)
      {
          Console.WriteLine("Analyze text failed.\nStatus code: {0}, Error code: {1}, Error message: {2}", ex.Status, ex.ErrorCode, ex.Message);
          throw;
      }

      Console.WriteLine("\nAnalyze text succeeded:");
      Console.WriteLine("Hate severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Hate)?.Severity ?? 0);
      Console.WriteLine("SelfHarm severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.SelfHarm)?.Severity ?? 0);
      Console.WriteLine("Sexual severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Sexual)?.Severity ?? 0);
      Console.WriteLine("Violence severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Violence)?.Severity ?? 0);

    }
    static void Main()
    {
        AnalyzeText();
    }
  }
}

Vervang "Your input text" door de tekstinhoud die u wilt gebruiken.

Tip

Tekstgrootte en granulariteit

De standaard maximumlengte voor tekstinzendingen is 10.000 tekens.

Bouw en voer de toepassing uit door Start Debugging te selecteren in het menu Foutopsporing boven aan het IDE-venster (of druk op F5).

Referentiedocumentatie | Broncode bibliotheek | Package (PyPI) | Voorbeelden |

Vereisten

  • Een Azure-abonnement - Een gratis abonnement maken
  • Zodra u uw Azure-abonnement hebt, maakt u een Content Safety-resource in Azure Portal om uw sleutel en eindpunt op te halen. Voer een unieke naam in voor uw resource, selecteer uw abonnement en selecteer een resourcegroep, ondersteunde regio (zie Beschikbaarheid van regio) en ondersteunde prijscategorie. Selecteer vervolgens Maken.
    • Het implementeren van de resource duurt enkele minuten. Nadat deze is voltooid, gaat u naar de resource. Selecteer in het linkerdeelvenster onder Resourcebeheer de optie Abonnementssleutel en Eindpunt. Het eindpunt en een van de sleutels worden gebruikt om API's aan te roepen.
  • Python 3.x
    • Uw Python-installatie moet pip bevatten. U kunt controleren of pip is geïnstalleerd door op de opdrachtregel uit te voeren pip --version . Haal pip op door de nieuwste versie van Python te installeren.

Omgevingsvariabelen maken

In dit voorbeeld schrijft u uw referenties naar omgevingsvariabelen op de lokale computer waarop de toepassing wordt uitgevoerd.

Tip

Neem de sleutel niet rechtstreeks op in uw code en plaats deze nooit openbaar. Zie het beveiligingsartikel over Azure AI-services voor meer verificatieopties, zoals Azure Key Vault.

Als u de omgevingsvariabele voor uw sleutel en eindpunt wilt instellen, opent u een consolevenster en volgt u de instructies voor uw besturingssysteem en ontwikkelomgeving.

  1. Als u de CONTENT_SAFETY_KEY omgevingsvariabele wilt instellen, vervangt u deze door YOUR_CONTENT_SAFETY_KEY een van de sleutels voor uw resource.
  2. Als u de CONTENT_SAFETY_ENDPOINT omgevingsvariabele wilt instellen, vervangt YOUR_CONTENT_SAFETY_ENDPOINT u het eindpunt voor uw resource.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'

Nadat u de omgevingsvariabelen hebt toegevoegd, moet u mogelijk alle actieve programma's die de omgevingsvariabelen lezen, met inbegrip van het consolevenster, opnieuw opstarten.

Inhoud van tekst analyseren

In de volgende sectie wordt een voorbeeldaanvraag beschreven met de Python SDK.

  1. Open een opdrachtprompt, navigeer naar de projectmap en maak een nieuw bestand met de naam quickstart.py.

  2. Voer deze opdracht uit om de Azure AI Content Safety-bibliotheek te installeren:

    pip install azure-ai-contentsafety
    
  3. Kopieer de volgende code naar quickstart.py:

    import os
    from azure.ai.contentsafety import ContentSafetyClient
    from azure.core.credentials import AzureKeyCredential
    from azure.core.exceptions import HttpResponseError
    from azure.ai.contentsafety.models import AnalyzeTextOptions, TextCategory
    
    def analyze_text():
        # analyze text
        key = os.environ["CONTENT_SAFETY_KEY"]
        endpoint = os.environ["CONTENT_SAFETY_ENDPOINT"]
    
        # Create an Azure AI Content Safety client
        client = ContentSafetyClient(endpoint, AzureKeyCredential(key))
    
        # Contruct request
        request = AnalyzeTextOptions(text="Your input text")
    
        # Analyze text
        try:
            response = client.analyze_text(request)
        except HttpResponseError as e:
            print("Analyze text failed.")
            if e.error:
                print(f"Error code: {e.error.code}")
                print(f"Error message: {e.error.message}")
                raise
            print(e)
            raise
    
        hate_result = next(item for item in response.categories_analysis if item.category == TextCategory.HATE)
        self_harm_result = next(item for item in response.categories_analysis if item.category == TextCategory.SELF_HARM)
        sexual_result = next(item for item in response.categories_analysis if item.category == TextCategory.SEXUAL)
        violence_result = next(item for item in response.categories_analysis if item.category == TextCategory.VIOLENCE)
    
        if hate_result:
            print(f"Hate severity: {hate_result.severity}")
        if self_harm_result:
            print(f"SelfHarm severity: {self_harm_result.severity}")
        if sexual_result:
            print(f"Sexual severity: {sexual_result.severity}")
        if violence_result:
            print(f"Violence severity: {violence_result.severity}")
    
    if __name__ == "__main__":
        analyze_text()
    
  4. Vervang "Your input text" door de tekstinhoud die u wilt gebruiken.

    Tip

    Tekstgrootte en granulariteit

    De standaard maximumlengte voor tekstinzendingen is 10.000 tekens.

  5. Voer vervolgens de toepassing uit met de python opdracht in uw quickstart-bestand.

    python quickstart.py
    

Referentiedocumentatie | Broncode bibliotheek | Artefact (Maven) | Voorbeelden

Vereisten

  • Een Azure-abonnement - Een gratis abonnement maken
  • De huidige versie van de Java Development Kit (JDK)
  • Het hulpprogramma Gradle of een andere afhankelijkheidsbeheerder.
  • Zodra u uw Azure-abonnement hebt, maakt u een Content Safety-resource in Azure Portal om uw sleutel en eindpunt op te halen. Voer een unieke naam in voor uw resource, selecteer uw abonnement en selecteer een resourcegroep, ondersteunde regio (zie Beschikbaarheid van regio) en ondersteunde prijscategorie. Selecteer vervolgens Maken.
    • Het implementeren van de resource duurt enkele minuten. Nadat deze is voltooid, gaat u naar de resource. Selecteer in het linkerdeelvenster onder Resourcebeheer de optie Abonnementssleutel en Eindpunt. Het eindpunt en een van de sleutels worden gebruikt om API's aan te roepen.

Toepassing instellen

Maak een nieuw Gradle-project.

Maak in een consolevenster (zoals cmd, PowerShell of Bash) een nieuwe map voor de app, en navigeer naar deze map.

mkdir myapp && cd myapp

Voer de opdracht gradle init uit vanuit uw werkmap. Met deze opdracht maakt u essentiële buildbestanden voor Gradle, inclusief build.gradle.kts, dat tijdens runtime wordt gebruikt om de toepassing te maken en te configureren.

gradle init --type basic

Wanneer u wordt gevraagd om een DSL te kiezen, selecteert u Kotlin.

Voer de volgende opdracht uit vanuit uw werkmap om een projectbronmap te maken:

mkdir -p src/main/java

Navigeer naar de nieuwe map en maak een bestand met de naam ContentSafetyQuickstart.java.

De client-SDK installeren

Deze quickstart maakt gebruik van de Gradle-afhankelijkheidsmanager. U vindt de clientbibliotheek en informatie voor andere afhankelijkheidsbeheerders in de Maven Central Repository.

Zoek build.gradle.kts en open het met uw favoriete IDE of teksteditor. Kopieer het vervolgens in de volgende buildconfiguratie. Deze configuratie definieert het project als een Java-toepassing waarvan het toegangspunt de klasse ContentSafetyQuickstart is. De Azure AI Vision-bibliotheek wordt geïmporteerd.

plugins {
    java
    application
}
application { 
    mainClass.set("ContentSafetyQuickstart")
}
repositories {
    mavenCentral()
}
dependencies {
    implementation(group = "com.azure", name = "azure-ai-contentsafety", version = "1.0.0")
}

Omgevingsvariabelen maken

In dit voorbeeld schrijft u uw referenties naar omgevingsvariabelen op de lokale computer waarop de toepassing wordt uitgevoerd.

Tip

Neem de sleutel niet rechtstreeks op in uw code en plaats deze nooit openbaar. Zie het beveiligingsartikel over Azure AI-services voor meer verificatieopties, zoals Azure Key Vault.

Als u de omgevingsvariabele voor uw sleutel en eindpunt wilt instellen, opent u een consolevenster en volgt u de instructies voor uw besturingssysteem en ontwikkelomgeving.

  1. Als u de CONTENT_SAFETY_KEY omgevingsvariabele wilt instellen, vervangt u deze door YOUR_CONTENT_SAFETY_KEY een van de sleutels voor uw resource.
  2. Als u de CONTENT_SAFETY_ENDPOINT omgevingsvariabele wilt instellen, vervangt YOUR_CONTENT_SAFETY_ENDPOINT u het eindpunt voor uw resource.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'

Nadat u de omgevingsvariabelen hebt toegevoegd, moet u mogelijk alle actieve programma's die de omgevingsvariabelen lezen, met inbegrip van het consolevenster, opnieuw opstarten.

Inhoud van tekst analyseren

Open ContentSafetyQuickstart.java in de gewenste editor of IDE en plak de volgende code. Vervang <your text sample> door de tekstinhoud die u wilt gebruiken.

Tip

Tekstgrootte en granulariteit

De standaard maximumlengte voor tekstinzendingen is 10.000 tekens.

import com.azure.ai.contentsafety.ContentSafetyClient;
import com.azure.ai.contentsafety.ContentSafetyClientBuilder;
import com.azure.ai.contentsafety.models.AnalyzeTextOptions;
import com.azure.ai.contentsafety.models.AnalyzeTextResult;
import com.azure.ai.contentsafety.models.TextCategoriesAnalysis;
import com.azure.core.credential.KeyCredential;
import com.azure.core.util.Configuration;


public class ContentSafetyQuickstart {
    public static void main(String[] args) {

        // get endpoint and key from environment variables
        String endpoint = System.getenv("CONTENT_SAFETY_ENDPOINT");
        String key = System.getenv("CONTENT_SAFETY_KEY");
        
        ContentSafetyClient contentSafetyClient = new ContentSafetyClientBuilder()
            .credential(new KeyCredential(key))
            .endpoint(endpoint).buildClient();

        AnalyzeTextResult response = contentSafetyClient.analyzeText(new AnalyzeTextOptions("<your text sample>"));

        for (TextCategoriesAnalysis result : response.getCategoriesAnalysis()) {
            System.out.println(result.getCategory() + " severity: " + result.getSeverity());
        }
    }
}

Ga terug naar de hoofdmap van het project en bouw de app met:

gradle build

Voer het vervolgens uit met de gradle run opdracht:

gradle run

Uitvoer

Hate severity: 0
SelfHarm severity: 0
Sexual severity: 0
Violence severity: 0

Referentiedocumentatie | Bibliotheekbroncode | Pakket (npm) | Voorbeelden |

Vereisten

  • Een Azure-abonnement - Een gratis abonnement maken
  • De huidige versie van Node.js
  • Zodra u uw Azure-abonnement hebt, maakt u een Content Safety-resource in Azure Portal om uw sleutel en eindpunt op te halen. Voer een unieke naam in voor uw resource, selecteer uw abonnement en selecteer een resourcegroep, ondersteunde regio (zie Beschikbaarheid van regio) en ondersteunde prijscategorie. Selecteer vervolgens Maken.
    • Het implementeren van de resource duurt enkele minuten. Nadat deze is voltooid, gaat u naar de resource. Selecteer in het linkerdeelvenster onder Resourcebeheer de optie Abonnementssleutel en Eindpunt. Het eindpunt en een van de sleutels worden gebruikt om API's aan te roepen.

Toepassing instellen

Een nieuwe Node.js-toepassing maken. Maak in een consolevenster (zoals cmd, PowerShell of Bash) een nieuwe map voor de app, en navigeer naar deze map.

mkdir myapp && cd myapp

Voer de opdracht npm init uit om een knooppunttoepassing te maken met een package.json-bestand.

npm init

De client-SDK installeren

Installeer het @azure-rest/ai-content-safety npm-pakket:

npm install @azure-rest/ai-content-safety

Installeer ook de dotenv module voor het gebruik van omgevingsvariabelen:

npm install dotenv

Het package.json-bestand van uw app wordt bijgewerkt met de afhankelijkheden.

Omgevingsvariabelen maken

In dit voorbeeld schrijft u uw referenties naar omgevingsvariabelen op de lokale computer waarop de toepassing wordt uitgevoerd.

Tip

Neem de sleutel niet rechtstreeks op in uw code en plaats deze nooit openbaar. Zie het beveiligingsartikel over Azure AI-services voor meer verificatieopties, zoals Azure Key Vault.

Als u de omgevingsvariabele voor uw sleutel en eindpunt wilt instellen, opent u een consolevenster en volgt u de instructies voor uw besturingssysteem en ontwikkelomgeving.

  1. Als u de CONTENT_SAFETY_KEY omgevingsvariabele wilt instellen, vervangt u deze door YOUR_CONTENT_SAFETY_KEY een van de sleutels voor uw resource.
  2. Als u de CONTENT_SAFETY_ENDPOINT omgevingsvariabele wilt instellen, vervangt YOUR_CONTENT_SAFETY_ENDPOINT u het eindpunt voor uw resource.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'

Nadat u de omgevingsvariabelen hebt toegevoegd, moet u mogelijk alle actieve programma's die de omgevingsvariabelen lezen, met inbegrip van het consolevenster, opnieuw opstarten.

Inhoud van tekst analyseren

Maak een nieuw bestand in uw map index.js. Open deze in uw favoriete editor of IDE en plak de volgende code. Vervang <your text sample> door de tekstinhoud die u wilt gebruiken.

Tip

Tekstgrootte en granulariteit

De standaard maximumlengte voor tekstinzendingen is 10.000 tekens.

const ContentSafetyClient = require("@azure-rest/ai-content-safety").default,
  { isUnexpected } = require("@azure-rest/ai-content-safety");
const { AzureKeyCredential } = require("@azure/core-auth");

// Load the .env file if it exists
require("dotenv").config();

async function main() {
    // get endpoint and key from environment variables
    const endpoint = process.env["CONTENT_SAFETY_ENDPOINT"];
    const key = process.env["CONTENT_SAFETY_KEY"];
    
    const credential = new AzureKeyCredential(key);
    const client = ContentSafetyClient(endpoint, credential);
    
    // replace with your own sample text string 
    const text = "<your sample text>";
    const analyzeTextOption = { text: text };
    const analyzeTextParameters = { body: analyzeTextOption };
    
    const result = await client.path("/text:analyze").post(analyzeTextParameters);
    
    if (isUnexpected(result)) {
        throw result;
    }
    
    for (let i = 0; i < result.body.categoriesAnalysis.length; i++) {
    const textCategoriesAnalysisOutput = result.body.categoriesAnalysis[i];
    console.log(
      textCategoriesAnalysisOutput.category,
      " severity: ",
      textCategoriesAnalysisOutput.severity
    );
  }
}

main().catch((err) => {
    console.error("The sample encountered an error:", err);
});

Voer de toepassing uit met de opdracht node in uw quickstart-bestand.

node index.js

Uitvoer

Hate severity:  0
SelfHarm severity:  0
Sexual severity:  0
Violence severity:  0

Resources opschonen

Als u een Azure AI-servicesabonnement wilt opschonen en verwijderen, kunt u de resource of resourcegroep verwijderen. Als u de resourcegroep verwijdert, worden ook alle bijbehorende resources verwijderd.

Volgende stappen

Configureer filters voor elke categorie en test op gegevenssets met Behulp van Content Safety Studio, exporteer de code en implementeer.