Bezpieczeństwo zawartości platformy Azure AI
Zwiększanie bezpieczeństwa aplikacji generatywnej sztucznej inteligencji dzięki zaawansowanym barierom dla odpowiedzialnej sztucznej inteligencji
Modele bezpieczeństwa zawartości zostały specjalnie wytrenowane i przetestowane w następujących językach: angielski, niemiecki, hiszpański, japoński, francuski, włoski, portugalski i chiński. Usługa może również działać w innych językach, ale jakość może się różnić. We wszystkich przypadkach należy wykonać własne testy, aby upewnić się, że sprawdza się w Twoich rozwiązaniach.
Kategorie niestandardowe obecnie działają dobrze tylko w języku angielskim. Możesz używać innych języków z własnym zestawem danych, ale jakość może się różnić.
Tarcze poleceń zwiększają bezpieczeństwo systemów generatywnej sztucznej inteligencji, chroniąc przed atakami polegającymi na wstrzykiwaniu poleceń:
Wykrywanie materiałów chronionych dla tekstu identyfikuje i blokuje wyświetlanie znanych treści tekstowych, takich jak teksty, artykuły, przepisy i wybrana zawartość sieci Web, w danych wyjściowych generowanych przez sztuczną inteligencję.
Wykrywanie materiałów chronionych dla kodu wykrywa dane wyjściowe znanego kodu i chroni przed nimi. Sprawdza, czy w repozytoriach GitHub są dopasowania względem publicznego kodu źródłowego. Ponadto kod odwołujący się do funkcji obsługiwanej przez narzędzie GitHub Copilot umożliwia deweloperom lokalizowanie repozytoriów na potrzeby poznawania i odnajdywania odpowiedniego kodu.