Azure Media Services : Dernières mises à jour de Video Indexer du NAB Show 2019

Publié le 4 avril, 2019

Principal Program Manager, Azure Media Services, Video Indexer

Mis à jour le 16 avril 2019 : Nous sommes ravis d'annoncer que le nouvel Éditeur IA Video Indexer a remporté le prix « NAB Show Product of the Year » dans la catégorie AI/ML ! Ce prix prestigieux récompense les « nouveaux produits et technologies les plus prometteurs » exposés chaque année au NAB.

Après avoir raflé plusieurs récompenses grâce au lancement de la disponibilité générale de Video Indexer d’Azure Media Services, dont l’IABM 2018 pour l’innovation en matière de gestion de contenu, ainsi que la prestigieuse récompense Peter Wayne, l’équipe a continué de se focaliser sur la création d’un grand nombre de nouvelles fonctionnalités et de modèles pour permettre à chaque organisation disposant d’archives de contenu multimédia volumineuses d’obtenir des aperçus de ce contenu. Ces organisations peuvent ensuite utiliser ces aperçus pour améliorer la recherche, permettre de nouveaux scénarios utilisateur et une nouvelle accessibilité, ainsi que pour débloquer de nouvelles opportunités de monétisation.

Au NAB Show 2019, nous sommes fiers d’annoncer un grand nombre de nouvelles améliorations apportées aux modèles et expériences utilisateur de Video Indexer qui seront lancées cette semaine, notamment :

  • Un nouvel éditeur basé sur l’intelligence artificielle qui vous permet de créer du contenu à partir de médias existants en quelques minutes
  • Des améliorations apportées à notre reconnaissance de personnes personnalisée, qui incluent une gestion centralisée de modèles et la capacité de les entraîner à partir d’images
  • Un entraînement aux modèles de langage basée sur les modifications de transcriptions, qui vous permet d’améliorer efficacement votre modèle de langage pour y inclure vos termes spécifiques au secteur
  • Un nouveau modèle de segmentation de scène (préversion)
  • De nouveaux modèles de détection de génériques de fin
  • Une disponibilité dans 9 régions différentes du monde
  • Les certifications ISO 27001, ISO 27018, SOC 1,2,3, HiTRUST, FedRAMP, HIPAA et PCI
  • La possibilité d’emporter vos données et modèles entraînés avec vous lorsque vous passez d’un compte d’essai à un compte Video Indexer payant

Vous trouverez plus d’informations sur tous ces fabuleux ajouts dans ce blog.

De plus, nous avons de grandes nouvelles pour les clients utilisant notre plateforme de streaming en direct pour ingérer des flux en direct, les transcoder, les empaqueter et les chiffrer de façon dynamique pour les livrer via des protocoles standard du secteur, tels que HLS et MPEG-DASH. La transcription en direct est une nouvelle fonctionnalité de nos API v3, grâce à laquelle vous pouvez améliorer les diffusions en continu livrées à vos spectateurs avec un texte généré par machine, transcrit à partir de textes parlés dans la vidéo diffusée en continu. Ce texte sera d’abord uniquement livré en TTML compatible IMSC1.1 packagé en fragments (ISO/IEC 14496-30) de 30 parties MPEG-4, qui peuvent être lus via le nouveau build du Lecteur multimédia Azure. Pour plus d'informations sur cette fonctionnalité et sur le programme de préversion privée, consultez la documentation « Transcription en direct avec Azure Media Services v3 ».

Nous annonçons également deux autres programmes en préversion privée pour la transcription multilingue et la détection d’animations, où les clients sélectionnés pourront influencer les modèles et les expériences autour d’eux. Venez nous parler au NAB Show ou contactez votre gestionnaire de comptes pour demander à être ajouté à ces programmes passionnants !

Extraire du contenu frais de votre archive multimédia n’a jamais été aussi facile

Pour ce faire, l’un des moyens les plus simples pour utiliser des aperçus complets de fichiers multimédias est de créer un nouveau média à partir d’un contenu existant. Cette option est utile si vous souhaitez mettre en avant des passages de films pour la création de bandes-annonces, utiliser d’anciens clips vidéo dans de nouvelles diffusions, créer un contenu plus court pour les réseaux sociaux ou pour tout autre besoin professionnel.

Pour rendre possible ce scénario en à peine quelques clics, nous avons créé un éditeur basé sur l’intelligence artificiellequi vous permet de trouver le bon contenu multimédia, de localiser les parties qui vous intéressent et de les utiliser pour créer une vidéo inédite à l’aide des métadonnées générées par Video Indexer. Une fois satisfait du résultat, celui-ci peut être restitué et téléchargé depuis Video Indexer, puis utilisé dans vos propres logiciels d’édition ou dans vos flux de travail en aval.

Video Indexer avec Satya Nadella

Toutes ces fonctionnalités sont également disponibles via note API REST mise à jour. Cela signifie que vous pouvez écrire du code qui crée des clips automatiquement sur la base d’aperçus. Les nouveaux appels d’API éditeur sont actuellement disponibles en préversion publique.

Vous voulez tester le nouvel éditeur basé sur l’intelligence artificielle ? Rendez-vous simplement sur l’un de vos fichiers multimédias indexés et cliquez sur le bouton « Ouvrir dans l’éditeur » pour commencer à créer du contenu.

Une personnalisation et une gestion de modèles plus intuitives

Video Indexer est fourni avec une série de modèles enrichis prêts à l’emploi pour que vous puissiez charger votre contenu et obtenir des aperçus immédiatement. Toutefois, les technologies d’intelligence artificielle sont toujours plus précises lorsque vous les personnalisez pour les adapter au contenu auquel elles sont destinées. C’est pourquoi Video Indexer fournit des fonctionnalités de personnalisation simples pour les modèles sélectionnés. Une telle personnalisation vous permet d’ajouter des modèles de personnes personnalisés au million de célébrités qui sont déjà identifiables actuellement par Video Indexer. Cette fonctionnalité de personnalisation existait déjà sous la forme d’un entraînement de personnes « inconnues » dans le contenu d’une vidéo, mais nous avons reçu de nombreuses demandes de clients pour l’améliorer encore plus, et c’est ce que nous avons fait !

Pour permettre un processus de personnalisation simple des modèles de personnes, nous avons ajouté une page de gestion centralisée de la reconnaissance de personnes vous permettant de créer plusieurs modèles de personnes personnalisés par compte, qui peuvent chacun contenir jusqu’à 1 million d’entrées. Vous pouvez y créer des modèles, ajouter de nouvelles personnes à des modèles existants, ainsi que les examiner, les renommer et les supprimer au besoin. De plus, vous pouvez désormais entraîner des modèles sur la base de vos images statiques avant même d’avoir chargé votre première vidéo sur votre compte. Les organisations qui possèdent déjà des archives d’images de personnes peuvent désormais les utiliser pour pré-entraîner leurs modèles. C’est aussi simple que de faire glisser et déposer les images pertinentes vers le nom de la personne, ou de les soumettre via l’API REST de Video Indexer (actuellement en préversion).

Informations sur la personne

Vous souhaitez en savoir plus ? Consultez nos options avancées de reconnaissance faciale personnalisées.

Une autre personnalisation majeure est la possibilité d’entraîner des modèles de langage à utiliser la terminologie propre à votre organisation ou le vocabulaire spécifique au secteur. Pour vous permettre d’améliorer plus rapidement la transcription pour votre organisation, Video Indexer collecte désormais automatiquement les modifications de transcription effectuées manuellement vers une nouvelle entrée dans le modèle de langage spécifique que vous utilisez. Tout ce que vous avez alors à faire, c’est de cliquer sur le bouton « Entraîner » pour les ajouter à vos propres modèles personnalisés. L’idée est de créer une boucle de commentaires où les organisations commencent avec un modèle de langage de base prêt à l’emploi, et d’améliorer sa précision via des modifications manuelles au fil du temps jusqu’à ce qu’il coïncide avec le vocabulaire et les termes verticaux de leur secteur spécifique.

Chronologie dans Video Indexer

Nouveaux ajouts au pipeline de Video Indexer

L’un des principaux avantages de Video Indexer est d’avoir un pipeline qui organise plusieurs aperçus dans une chronologie depuis différents canaux. Nous travaillons souvent sur ce pipeline pour l’enrichir avec des aperçus supplémentaires.

L’une des dernières nouveautés de la série d’aperçus de Video Indexer est la capacité à segmenter une vidéo par scènes sémantiques (actuellement en préversion) sur la base de signaux visuels. Les scènes sémantiques ajoutent un autre niveau de détail aux modèles de détection de plans et d’extraction d’images clés dans Video Indexer. Elles visent à décrire un seul événement composé d’une série de plans consécutifs sémantiquement liés.

Ces scènes peuvent être utilisées pour regrouper une série d’aperçus, puis s’y référer en tant qu’aperçus issus d’un même contexte, et ainsi en déduire une signification plus complexe. Par exemple, si une scène comporte un avion, une piste d’atterrissage et une valise, le client peut logiquement en déduire que la scène se déroule dans un aéroport. Les scènes peuvent également être utilisées comme des unités pour être extraites sous la forme d’un extrait d’une vidéo complète.

Les scènes dans Video Indexer

Un autre ajout intéressant apporté à Video Indexer est la possibilité d’identifier le générique de fin d’un film ou d’une émission télévisée. Cette fonctionnalité peut s’avérer utile pour les sociétés de diffusion afin d’identifier le moment où les spectateurs ont terminé le visionnage de la vidéo, ainsi que pour déterminer l’instant idéal pour recommander un autre film ou une autre émission au spectateur avant de perdre de l’audience.

Video Indexer repose sur la confiance (et s’exécute dans plus de régions)

Puisque Video Indexer fait partie de la famille Azure Media Services et est conçu pour servir des organisations de toutes tailles et dans tous les secteurs, il est crucial à nos yeux d’aider nos clients à répondre à leurs exigences de conformité au sein de secteurs et de marchés réglementés dans le monde entier. Dans ce but, nous sommes heureux d’annoncer que Video Indexer est désormais certifié ISO 27001, ISO 27018, SOC 1,2,3, HIPAA, FedRAMP, PCI et HITRUST. En savoir plus sur le statut de la plupart des certifications actuelles de Video Indexer et sur tous les autres services Azure.

En outre, nous avons augmenté la disponibilité de notre service dans le monde entier : nous sommes maintenant déployés dans 9 régions pour votre confort. Les régions disponibles incluent désormais USA Est (Essai), USA Est 2, USA Centre Sud, USA Ouest 2, Europe Nord, Europe Ouest, Asie Sud-Est, Asie Est et Australie Est. Plus de régions seront disponibles en ligne prochainement, alors restez à l’écoute. Vous pouvez toujours rechercher la dernière disponibilité régionale de Video Indexer en consultant la page Produits par région.

Video Indexer continue d’être complètement disponible à l’essai pour la région USA Est. Cela permet aux organisations de tester l’ensemble des fonctionnalités de Video Indexer sur leurs propres données avant de créer un compte payant avec leur abonnement Azure. Une fois que les organisations décident de l’ajouter à leur abonnement Azure, elles peuvent copier toutes les personnalisations de modèles et de vidéos créées sur leur compte d’essai, juste en cochant la case à cocher adéquate dans le contenu de l’Assistant Création de compte.

Connecter Video Indexer à un abonnement Azure

Vous voulez être le premier à essayer nos dernières fonctionnalités ?

Aujourd’hui, nous sommes fiers d’annoncer trois programmes en préversion privée pour les fonctionnalités réclamées par divers clients.

Transcription en direct : possibilité de diffuser en continu un événement en direct, où les textes parlés dans la bande-son sont transcrits en texte et livrés avec la vidéo et l’audio.

Transcription de langues mixtes : possibilité d’identifier automatiquement plusieurs langues parlées dans un fichier vidéo pour créer une transcription de langues mixtes pour ce fichier.

Détection de caractères dans une animation : possibilité d’identifier des caractères dans du contenu animé comme s’il s’agissait de vraies personnes !

Nous sélectionnerons une série de clients dans une liste des clients désireux de devenir nos partenaires de conception pour ces nouvelles fonctionnalités. Les clients sélectionnés pourront grandement influencer ces nouvelles fonctionnalités et pourront obtenir des modèles d’une grande qualité pour leurs données et leurs flux organisationnels. Vous voulez en faire partie ? Venez nous voir au NAB Show ou contactez votre gestionnaire de comptes pour plus de détails !

Venez nous voir au NAB Show 2019

Si vous participez au NAB Show 2019, passez par le stand SL6716 pour découvrir les dernières innovations d’Azure Media Services ! Nous sommes impatients de vous rencontrer, de découvrir vos créations et de vous servir de guide pour toutes les innovations qu’Azure Media Services et nos partenaires lanceront lors du NAB Show. Nous vous présenterons également les produits sur notre stand pendant la démonstration.

Avez-vous des questions ou des commentaires ? Nous sommes à votre écoute ! Utilisez UserVoice pour nous aider à définir les priorités dans les fonctionnalités ou envoyez un message à VISupport@Microsoft.com pour toute question.