Trace Id is missing
Ugrás a tartalomtörzsre
Azure

Azure AI Tartalom Biztonság

Generatív AI-alkalmazások biztonságának növelése a felelősen alkalmazott mesterséges intelligenciához illeszkedő fejlett védőkorlátokkal
Áttekintés

Hatékony védőkorlátok létrehozása a generatív AI-hoz

  • Észlelheti és letilthatja az erőszakos, a gyűlöletkeltő, a szexuális és az önkárosító tartalmakat. A súlyossági küszöbértékeket az adott felhasználási esethez konfigurálhatja, és érvényt szerezhet a felelősen alkalmazott mesterséges intelligenciára vonatkozó szabályzatoknak.
  • Az egyéni kategóriák segítségével a saját igényeire szabott, egyedi tartalomszűrőket hozhat létre. Az új egyéni kategóriákat gyorsan betaníthatja a letiltandó tartalmat bemutató példák segítségével.
  • AI-alkalmazásait megvédheti a parancsinjektálásos támadásoktól és a feltörési kísérletektől. A parancsvédelem segítségével mind a közvetlen, mind a közvetett fenyegetéseket azonosíthatja és mérsékelheti.
  • A megalapozottság észlelésével azonosíthatja és korrigálhatja a generatív AI hallucinációit, és biztosíthatja, hogy a kimenetek megbízhatóak, pontosak és az adatokra alapozottak legyenek.
  • A védett anyag érzékelés funkcióval azonosíthatja a szerzői jogi védelem alatt álló tartalmakat, és forrásokat adhat meg a már meglévő szövegekhez és kódokhoz.
Videó

AI-alkalmazások fejlesztése beépített biztonsággal

Az Azure AI Tartalom Biztonsággal észlelheti és csökkentheti a kártékony tartalmakat a felhasználók és az AI által létrehozott bemenetekben és kimenetekben, beleértve a szövegeket, a képeket és a vegyes médiatartalmakat is.
Használati esetek

Az AI-alkalmazások védelme

Biztonság

Beépített biztonság és megfelelőség 

Díjszabás

Rugalmas díjszabás az Ön igényeinek megfelelően

Csak a tényleges használatért kell fizetnie – előzetes költség nélkül. Az Azure AI Tartalom Biztonság használatalapú fizetéses díjszabása az alábbiakon alapul:
Ügyfeleink sikertörténetei

Ismerje meg, hogyan védik az ügyfelek az alkalmazásaikat az Azure AI Tartalom Biztonság használatával

GYIK

Gyakori kérdések

  • A tartalombiztonsági modelleket kifejezetten a következő nyelveken tanítottuk be és teszteltük: Angol, német, spanyol, japán, francia, olasz, portugál és kínai. A szolgáltatás más nyelveken is működik, de a minőség változhat. Minden esetben érdemes elvégezni saját tesztelést, hogy megbizonyosodjon arról, hogy az Ön alkalmazásánál működik-e a rendszer.
    Az egyéni kategóriák jelenleg csak angol nyelven működnek jól. Más nyelveket is használhat a saját adatkészletével, de a minőség változó lehet.
  • Az Azure AI Tartalom Biztonság egyes funkciói csak bizonyos régiókban érhetők el. Tekintse meg az egyes régiókban elérhető funkciókat.
  • A rendszer négy káros kategóriát figyel: gyűlölet, szexuális tartalom, erőszak és önkárosítás.
  • Igen, az egyes káros kategóriák szűrőinél módosíthatja a súlyossági küszöbértékeket.
  • Igen, az Azure AI Tartalom Biztonság egyéni kategóriák API-ját használhatja saját tartalomszűrők létrehozásához. Példák megadásával betaníthatja a szűrőt arra, hogy felismerje és letiltsa az Ön által meghatározott egyéni kategóriákba tartozó nemkívánatos tartalmakat.
  • A parancsvédelem a parancsinjektálásos támadások elleni védelemmel növeli a generatív AI-rendszerek biztonságát:
     
    • Közvetlen parancstámadások (feltörések): A felhasználók úgy próbálják manipulálni az AI-rendszert és megkerülni a biztonsági protokollokat, hogy olyan parancsokat hoznak létre, amelyek megpróbálják megváltoztatni a rendszer szabályait, vagy korlátozott műveletek végrehajtására veszik rá a modellt.
    • Közvetett támadások: A harmadik féltől származó tartalmak, például dokumentumok vagy e-mailek, rejtett utasításokat tartalmaznak az AI-rendszer kihasználására, például olyan beágyazott parancsokat, amelyeket az AI akaratlanul is végrehajthat.
  • A megalapozottság észlelése azonosítja és korrigálja a generatív AI-modellek megalapozatlan kimeneteit, biztosítva, hogy azok a megadott forrásanyagokon alapuljanak. Ez segít megelőzni a nem valós vagy hamis információk létrehozását. Egy egyéni nyelvi modell használatával a megalapozottság észlelése az állításokat a forrásadatokkal összevetve értékeli, és mérsékli a mesterséges intelligencia hallucinációit.
  • A védett anyag érzékelés funkció azonosítja az ismert szöveges tartalmakat, például dalszövegeket, cikkeket, recepteket és egyes webes tartalmakat, és megakadályozza, hogy azok megjelenjenek az AI által létrehozott kimenetekben.
    Kód esetén a védett anyag érzékelés észleli az ismert kódokat, és megakadályozza, hogy azok megjelenjenek a kimenetben. Egyezéseket keres a GitHub-adattárakban lévő nyilvános forráskóddal. A GitHub Copilot által támogatott kódhivatkozási képesség emellett azt is lehetővé teszi a fejlesztők számára, hogy megtalálják a releváns kódokat tartalmazó adattárakat.
  • Az Azure OpenAI Service-ben elérhető tartalomszűrő rendszer az Azure AI Tartalom Biztonság segítségével működik. Arra szolgál, hogy felismerje és megakadályozza a káros tartalmak megjelenítését mind a beviteli parancsokban, mind a kimeneti tartalomban. Az alapmodellek, köztük a GPT és a DALL-E használata mellett működik.