Trace Id is missing
Saltar al contenido principal
Azure

Seguridad del contenido de Azure AI

Aumente la seguridad de las aplicaciones de IA generativa con Límites de protección avanzados para una IA responsable
Información general

Crear Límites de protección sólidos para la IA generativa

  • Detectar y bloquear contenidos violentos, de odio, sexuales y de autolesión. Configure umbrales de gravedad para su caso de uso específico, y cumpla las directivas de IA responsables.
  • Crear filtros de contenido únicos y adaptados a sus necesidades mediante categorías personalizadas. Entrene rápidamente una nueva categoría personalizada proporcionando ejemplos del contenido que necesita bloquear.
  • Proteja sus aplicaciones de IA contra ataques de inyección puntual e intentos de liberarlas. Identifique y mitigue las amenazas directas e indirectas con escudos rápidos.
  • Identifique y corrija las alucinaciones generativas de la IA y asegúrese de que los resultados son fiables, precisos y se basan en datos con la detección de fundamentos.
  • Localice contenidos protegidos por derechos de autor y proporcione fuentes de textos y códigos preexistentes con detección de material protegido.
Vídeo

Desarrollo de aplicaciones de IA con seguridad integrada

Detecte y mitigue el contenido nocivo en entradas y salidas generadas por el usuario y por la IA, incluidos texto, imágenes y medios mixtos, todo ello con la Seguridad del contenido de Azure AI.
Casos de uso

Proteja sus aplicaciones de IA

Seguridad

Seguridad y cumplimiento normativo integrados 

Microsoft se ha comprometido a invertir 20 000 millones de USD en ciberseguridad durante cinco años.
Empleamos a más de 8500 expertos en seguridad e inteligencia sobre amenazas en 77 países.
Azure posee una de las mayores carteras de certificación de cumplimiento del sector.
Precios

Precios flexibles para satisfacer sus necesidades

Pague solo por lo que utilice, sin costes iniciales. Los precios de la Seguridad del contenido de Azure AI de pago por uso se basan en:
Casos de clientes

Vea cómo los clientes protegen sus aplicaciones mediante la Seguridad del contenido de Azure AI

Preguntas más frecuentes

Preguntas más frecuentes

  • Los modelos de Seguridad del contenido se han formado y probado específicamente en los siguientes idiomas: Inglés, alemán, español, japonés, francés, italiano, portugués y chino. El servicio puede funcionar también en otros idiomas, pero la calidad puede variar. En todos los casos, debe realizar sus propias pruebas para asegurarse de que funciona para su aplicación.
    Actualmente, las categorías personalizadas solo funcionan bien en inglés. Puede utilizar otros idiomas con su propio conjunto de datos, pero la calidad podría variar.
  • Algunas funciones de la Seguridad del contenido de Azure AI solo están disponibles en determinadas regiones. Consulte las funciones disponibles en cada región.
  • El sistema supervisa cuatro categorías de daños: odio, sexual, violencia y autolesiones.
  • Sí, puede ajustar los umbrales de gravedad para cada filtro de categoría de daño.
  • Sí, puede utilizar la API de categorías personalizadas de la Seguridad del contenido de Azure AI para crear sus propios filtros de contenidos. Proporcionando ejemplos, puede entrenar al filtro para que detecte y bloquee contenidos no deseados específicos de las categorías personalizadas que haya definido.
  • Los escudos de inyección mejoran la seguridad de los sistemas de IA generativa defendiéndolos de los ataques de inyección:
     
    • Ataques rápidos directos (liberaciones): Los usuarios intentan manipular el sistema de IA y eludir los protocolos de seguridad creando mensajes que intentan alterar las reglas del sistema o engañar al modelo para que ejecute acciones restringidas.
    • Ataques indirectos: El contenido de terceros, como documentos o correos electrónicos, contiene instrucciones ocultas para explotar el sistema de IA, como comandos incrustados que una IA podría ejecutar sin saberlo.
  • La detección de fundamentos identifica y corrige los resultados no fundamentados de los modelos generativos de IA, garantizando que se basan en los materiales de origen proporcionados. Esto ayuda a prevenir la generación de información fabricada o falsa. Mediante un modelo lingüístico personalizado, la detección de fundamentos evalúa las afirmaciones con respecto a los datos de origen y mitiga las alucinaciones de la IA.
  • La detección de material protegido para texto identifica y bloquea contenidos de texto conocidos, como letras de canciones, artículos, recetas y contenidos web seleccionados, para que no aparezcan en los resultados generados por la IA.
    La detección de material protegido para código detecta e impide la salida de código conocido. Comprueba las coincidencias con el código fuente público en los repositorios de GitHub. Además, la capacidad de hacer referencia al código de GitHub Copilot permite a los desarrolladores localizar repositorios para explorar y descubrir código relevante.
  • El sistema de filtrado de contenidos dentro de Azure OpenAI Service está impulsado por la Seguridad del contenido de Azure AI. Está diseñado para detectar e impedir la salida de contenidos nocivos tanto en los mensajes de entrada como en los de salida. Funciona junto con los modelos básicos, incluidos GPT y DALL-E.