Trace Id is missing
Przejdź do głównej zawartości
Azure

Bezpieczeństwo zawartości platformy Azure AI

Zwiększanie bezpieczeństwa aplikacji generatywnej sztucznej inteligencji dzięki zaawansowanym barierom dla odpowiedzialnej sztucznej inteligencji
Omówienie

Tworzenie niezawodnych barier dla generatywnej sztucznej inteligencji

  • Wykrywaj i blokuj treści dotyczące przemocy, nienawiści, seksualności i samookaleczania. Skonfiguruj progi ważności dla określonego przypadku użycia i przestrzegaj zasad odpowiedzialnej sztucznej inteligencji.
  • Twórz unikatowe filtry zawartości dostosowane do Twoich wymagań przy użyciu kategorii niestandardowych. Szybko wytrenuj nową kategorię niestandardową, podając przykłady zawartości, którą chcesz zablokować.
  • Chroń aplikacje sztucznej inteligencji przed atakami polegającymi na wstrzyknięciu polecenia i próbami wykonania jailbreak. Identyfikuj i eliminuj zagrożenia bezpośrednie i pośrednie za pomocą tarczy poleceń.
  • Zidentyfikuj i popraw halucynacje generatywnej sztucznej inteligencji oraz upewnij się, że dane wyjściowe są wiarygodne, dokładne i ugruntowane w danych dzięki ugruntowanemu wykrywaniu.
  • Dokładnie wskaż zawartość chronioną prawami autorskimi i podaj źródła wstępnie istniejącego tekstu i kodu z wykrywaniem materiałów chronionych.
Wideo

Tworzenie aplikacji AI z wbudowanymi zabezpieczeniami

Wykrywaj i ograniczaj szkodliwą zawartość w danych wejściowych i wyjściowych generowanych przez użytkownika oraz sztuczną inteligencję, w tym tekst, obrazy i multimedia mieszane — to wszystko za pomocą usługi Bezpieczeństwo zawartości platformy Azure AI.
Przypadki użycia

Ochrona aplikacji sztucznej inteligencji

Zabezpieczenia

Wbudowane Zabezpie­czenia i zgodność 

Firma Microsoft zobowiązuje się do zainwestowania 20 mld USD w cyberbezpieczeństwo w ciągu pięciu lat.
Platforma Azure ma jeden z największych portfeli certyfikacji zgodności w branży.
Ceny

Elastyczne ceny spełniające Twoje potrzeby

Płać wyłącznie za rzeczywiste użycie bez kosztów ponoszonych z góry. Ceny dotyczące płatności zgodnie z rzeczywistym użyciem usługi Bezpieczeństwo zawartości platformy Azure AI są oparte na następujących zasadach:
Historie klientów

Zobacz, jak klienci chronią swoje aplikacje za pomocą usługi Bezpieczeństwo zawartości platformy Azure AI

FAQ

Często zadawane pytania

  • Modele bezpieczeństwa zawartości zostały specjalnie wytrenowane i przetestowane w następujących językach: angielski, niemiecki, hiszpański, japoński, francuski, włoski, portugalski i chiński. Usługa może również działać w innych językach, ale jakość może się różnić. We wszystkich przypadkach należy wykonać własne testy, aby upewnić się, że sprawdza się w Twoich rozwiązaniach.
    Kategorie niestandardowe obecnie działają dobrze tylko w języku angielskim. Możesz używać innych języków z własnym zestawem danych, ale jakość może się różnić.
  • Niektóre funkcje usługi Bezpieczeństwo zawartości platformy Azure AI są dostępne tylko w niektórych regionach. Zobacz funkcje dostępne w każdym regionie.
  • System monitoruje cztery kategorie krzywdzenia: nienawiść, seksualność, przemoc i samookaleczenie.
  • Tak, możesz dostosować progi ważności dla każdego filtru kategorii krzywdzenia.
  • Tak, możesz używać interfejsu API kategorii niestandardowych usługi Bezpieczeństwo zawartości platformy Azure AI do tworzenia własnych filtrów zawartości. Podając przykłady, można wytrenować filtr w celu wykrywania i blokowania niepożądanej zawartości specyficznej dla zdefiniowanych kategorii niestandardowych.
  • Tarcze poleceń zwiększają bezpieczeństwo systemów generatywnej sztucznej inteligencji, chroniąc przed atakami polegającymi na wstrzykiwaniu poleceń:
     
    • Bezpośrednie ataki za pomocą poleceń (wykonywanie jailbreak): Użytkownicy próbują manipulować systemem sztucznej inteligencji i pomijać protokoły bezpieczeństwa, tworząc polecenia, które próbują zmienić reguły systemowe lub oszukać model do wykonywania ograniczonych akcji.
    • Ataki pośrednie: Zawartość innych firm, taka jak dokumenty lub wiadomości e-mail, zawiera ukryte instrukcje dotyczące wykorzystania systemu sztucznej inteligencji, takie jak osadzone polecenia, które sztuczna inteligencja może w sposób nieświadomy wykonywać.
  • Ugruntowane wykrywanie identyfikuje i poprawia nieugruntowane dane wyjściowe modeli generatywnej sztucznej inteligencji, zapewniając, że są one oparte na dostarczonych materiałach źródłowych. Pomaga to zapobiec generowaniu informacji sfabrykowanych lub fałszywych. Przy użyciu niestandardowego modelu językowego ugruntowane wykrywanie ocenia oświadczenia względem danych źródłowych i ogranicza halucynacje sztucznej inteligencji.
  • Wykrywanie materiałów chronionych dla tekstu identyfikuje i blokuje wyświetlanie znanych treści tekstowych, takich jak teksty, artykuły, przepisy i wybrana zawartość sieci Web, w danych wyjściowych generowanych przez sztuczną inteligencję.
    Wykrywanie materiałów chronionych dla kodu wykrywa dane wyjściowe znanego kodu i chroni przed nimi. Sprawdza, czy w repozytoriach GitHub są dopasowania względem publicznego kodu źródłowego. Ponadto kod odwołujący się do funkcji obsługiwanej przez narzędzie GitHub Copilot umożliwia deweloperom lokalizowanie repozytoriów na potrzeby poznawania i odnajdywania odpowiedniego kodu.
  • System filtrowania zawartości w usłudze Azure OpenAI Service jest obsługiwany przez usługę Bezpieczeństwo zawartości platformy Azure AI. Jest on przeznaczony do wykrywania i zapobiegania przekazywaniu szkodliwej zawartości zarówno w podpowiedziach danych wejściowych, jak i uzupełnieniach danych wyjściowych. Działa ona razem z podstawowymi modelami, w tym GPT i DALL-E.