Trace Id is missing
Passa a contenuti principali
Azure

Sicurezza dei contenuti di Azure AI

Migliora la sicurezza delle applicazioni di IA generativa con protezioni avanzate per un'IA responsabile
Panoramica

Crea protezioni solide per l'IA generativa

  • Rileva e blocca contenuti violenti, che incitino all'odio, sessuali e di autolesionismo. Configura le soglie di gravità per il tuo caso d'uso specifico e rispetta criteri di IA responsabile.
  • Crea filtri dei contenuti specifici e mirati in base ai tuoi requisiti usando le categorie personalizzate. Esegui rapidamente il training di una nuova categoria personalizzata fornendo esempi di contenuti che desideri bloccare.
  • Proteggi le tue applicazioni di IA da attacchi prompt injection e tentativi di manomissione con jailbreak. Identifica e riduci le minacce dirette e indirette con le protezioni delle richieste.
  • Identifica e correggi gli errori dell'IA generativa, a garanzia che gli output siano affidabili, accurati e basati sui dati con il rilevamento della fondatezza.
  • Aggiungi contenuti protetti da copyright e offri fonti per il testo e il codice preesistenti con il rilevamento di materiale protetto.
Video

Sviluppa app di IA con la sicurezza predefinita

Rileva e riduci i contenuti dannosi negli input e output generati dagli utenti e dall'IA, inclusi testo, immagini e contenuti multimediali misti, il tutto con Sicurezza dei contenuti di Azure AI.
Casi d'uso

Proteggi le tue applicazioni di IA

Sicurezza

Sicurezza e conformità predefinite 

Microsoft si impegna a investire 20 miliardi di USD in cybersecurity nel corso di cinque anni.
Microsoft impiega più di 8.500 esperti di sicurezza e intelligence sulle minacce in 77 paesi.
Azure ha uno dei più grandi portfolio di certificazioni di conformità nel settore.
Prezzi

Prezzi flessibili per soddisfare le tue esigenze

Paga solo per ciò che usi, senza costi iniziali. Il prezzi del pagamento in base al consumo di Sicurezza dei contenuti di Azure AI si basano su:
Storie dei clienti

Scopri in che modo i clienti stanno proteggendo le loro applicazioni con Sicurezza dei contenuti di Azure AI

Domande frequenti

Domande frequenti

  • I modelli di sicurezza dei contenuti sono stati sottoposti a training e testati specificatamente nelle lingue seguenti: inglese, tedesco, spagnolo, giapponese, francese, italiano, portoghese e cinese. Il servizio può funzionare in altre lingue, ma la qualità potrebbe variare. In ogni caso, dovresti condurre i tuoi test per verificare il suo funzionamento nella tua applicazione.
    Le categorie personalizzate attualmente funzionano bene solo in inglese. Puoi usare altre lingue con il tuo set di dati, ma la qualità potrebbe variare.
  • Alcune funzionalità di Sicurezza dei contenuti di Azure AI sono disponibili solo in determinate aree geografiche. Vedi le funzionalità disponibili in ogni area geografica.
  • Il sistema monitora quattro categorie di contenuti dannosi: odio, contenuti sessuali, violenza e autolesionismo.
  • Sì, puoi modificare le soglie di gravità per ogni filtro di categoria di contenuti dannosi.
  • Sì, puoi usare l'API delle categorie personalizzate di Sicurezza dei contenuti di Azure AI per creare i tuoi filtri dei contenuti personali. Fornendo esempi, puoi eseguire il training del filtro per rilevare e bloccare contenuti specifici non desiderati in base alle categorie personalizzate definite.
  • Le protezioni delle richieste migliorano la sicurezza dei sistemi di IA generativa difendendoli da attacchi di prompt injection:
     
    • Attacchi alle richieste diretti (jailbreak): gli utenti provano a manipolare il sistema IA e superare i protocolli di sicurezza creando richieste che cercano di alterare le regole del sistema o ingannare il modello nell'ambito dell'esecuzione di azioni con limitazioni.
    • Attacchi indiretti: i contenuti di terze parti, come documenti o e-mail, presentano istruzioni nascoste per sfruttare il sistema IA, come i comandi incorporati che l'IA potrebbe eseguire inconsapevolmente.
  • Il rilevamento della fondatezza identifica e corregge gli output non fondati dei modelli di IA generativa, a garanzia che si basino sui materiali di origine forniti. Questo consente di evitare la generazione di informazioni inventate o false. Usando un modello linguistico personalizzato, il rilevamento della fondatezza valuta le problematiche relative ai dati di origine e riduce gli errori dell'IA.
  • Il rilevamento di materiale protetto per il testo identifica e blocca i contenuti testuali noti, come parole di canzoni, articoli, ricette e contenuti web selezionati, in modo che non vengano visualizzati come output generati dall'IA.
    Il rilevamento di materiale protetto per il codice rileva e impedisce la trasmissione di codice noto. Controlla la presenza di corrispondenze rispetto al codice sorgente pubblico nei repository GitHub. Inoltre, il codice di riferimento della capacità basata su GitHub Copilot consente agli sviluppatori di individuare i repository per l'esplorazione e l'individuazione di codice sorgente.
  • Il sistema di filtro dei contenuti nel Servizio OpenAI di Azure si basa su Sicurezza dei contenuti di Azure AI. È progettato per rilevare e prevenire la trasmissione di contenuti dannosi nelle richieste in entrata e nei completamenti in uscita. Funziona insieme ai modelli di base, inclusi GPT e DALL-E.