Trace Id is missing
Lompati ke konten utama
Azure

Keamanan Konten Azure AI

Tingkatkan keamanan aplikasi AI generatif dengan pagar pembatas tingkat lanjut untuk AI yang bertanggung jawab
Gambaran umum

Buat pagar pembatas yang kuat untuk AI generatif

  • Deteksi dan blokir konten kekerasan, kebencian, seksual, dan melukai diri. Konfigurasikan ambang keparahan untuk kasus penggunaan spesifik Anda, dan patuhi kebijakan AI Anda yang bertanggung jawab.
  • Buat filter konten unik yang disesuaikan dengan kebutuhan Anda menggunakan kategori kustom. Latih kategori kustom baru dengan cepat dengan memberikan contoh konten yang perlu Anda blokir.
  • Lindungi aplikasi AI Anda dari serangan injeksi perintah dan upaya jailbreak. Identifikasi dan mitigasi ancaman langsung dan tidak langsung dengan perisai perintah.
  • Identifikasi dan perbaiki halusinasi AI generatif dan pastikan output dapat diandalkan, akurat, dan berdasarkan data dengan deteksi groundedness.
  • Identifikasi konten dengan hak cipta dan berikan sumber teks dan kode yang pernah ada sebelumnya dengan deteksi material yang dilindungi.
Video

Kembangkan aplikasi AI dengan keamanan bawaan

Deteksi dan mitigasi konten berbahaya dalam input dan output yang dihasilkan AI dan yang dibuat pengguna—termasuk teks, gambar, dan media campuran—semuanya dengan Keamanan Konten Azure AI.
Kasus penggunaan

Lindungi aplikasi AI Anda

Keamanan

Keamanan dan kepatuhan bawaan 

Microsoft telah berkomitmen untuk berinvestasi sebesar USD$20 miliar dalam keamanan cyber selama lima tahun.
Kami mempekerjakan lebih dari 8.500 ahli intelijen ancaman dan keamanan di 77 negara.
Azure memiliki salah satu portofolio sertifikasi kepatuhan terbesar dalam industri.
Harga

Harga fleksibel untuk memenuhi kebutuhan Anda

Bayar yang Anda gunakan saja—tanpa biaya di muka. Harga PAYG Keamanan Konten Azure AI didasarkan pada:
Kisah pelanggan

Lihat bagaimana pelanggan melindungi aplikasi mereka dengan Keamanan Konten Azure AI

Tanya Jawab Umum

Tanya jawab umum

  • Model Keamanan Konten telah dilatih dan diuji secara khusus dalam bahasa berikut: Inggris, Jerman, Spanyol, Jepang, Prancis, Italia, Portugis, dan Tionghoa. Layanan juga dapat berfungsi dalam bahasa lain, tetapi kualitasnya mungkin bervariasi. Dalam semua kasus, Anda harus melakukan pengujian sendiri untuk memastikan bahwa bahasa dapat berfungsi untuk aplikasi Anda.
    Kategori kustom saat ini hanya berfungsi dengan baik dalam bahasa Inggris. Anda dapat menggunakan bahasa lain dengan himpunan data Anda sendiri, tetapi kualitasnya mungkin bervariasi.
  • Beberapa fitur Keamanan Konten Azure AI hanya tersedia di wilayah tertentu. Lihat fitur yang tersedia di setiap wilayah.
  • Sistem memantau empat kategori bahaya: kebencian, seksual, kekerasan, dan melukai diri.
  • Ya, Anda dapat menyesuaikan ambang keparahan untuk setiap filter kategori bahaya.
  • Ya, Anda dapat menggunakan API kategori kustom Keamanan Konten Azure AI untuk membuat filter konten Anda sendiri. Dengan memberikan contoh, Anda dapat melatih filter untuk mendeteksi dan memblokir konten yang tidak diinginkan khusus untuk kategori kustom yang Anda tentukan.
  • Perisai perintah meningkatkan keamanan sistem AI generatif dengan melindungi dari serangan injeksi perintah:
     
    • Serangan perintah langsung (jailbreak): Pengguna mencoba memanipulasi sistem AI dan menghindari protokol keamanan dengan membuat perintah yang mencoba mengubah aturan sistem atau menipu model untuk menjalankan tindakan yang dilarang.
    • Serangan tidak langsung: Konten pihak ketiga, seperti dokumen atau email, berisi instruksi tersembunyi untuk mengeksploitasi sistem AI, seperti perintah tersemat yang mungkin dijalankan AI tanpa sadar.
  • Deteksi groundedness mengidentifikasi dan memperbaiki output model AI generatif yang tidak berdasar, sehingga memastikannya didasarkan pada material sumber yang disediakan. Hal ini membantu mencegah pembuatan informasi yang palsu atau salah. Menggunakan model bahasa kustom, deteksi groundedness mengevaluasi klaim terhadap data sumber dan memitigasi halusinasi AI.
  • Deteksi material yang dilindungi untuk teks mengidentifikasi dan memblokir konten teks yang diketahui, seperti lirik, artikel, resep, dan konten web yang dipilih agar tidak muncul di output yang dihasilkan AI.
    Deteksi material yang dilindungi untuk kode mendeteksi dan mencegah output kode yang diketahui. Deteksi ini memeriksa kecocokan terhadap kode sumber publik di repositori GitHub. Selain itu, kemampuan mereferensikan kode yang didukung oleh GitHub Copilot memungkinkan pengembang menemukan repositori untuk menjelajahi dan menemukan kode yang relevan.
  • Sistem pemfilteran konten di dalam Azure OpenAI Service didukung oleh Keamanan Konten Azure AI. Sistem ini dirancang untuk mendeteksi dan mencegah output konten berbahaya dalam perintah input dan penyelesaian output. Sistem ini berfungsi bersama model utama, termasuk GPT dan DALL-E.