Entwickler und Medienunternehmen verwenden Azure Media Services zum bedarfsorientierten Programmieren, Schützen, Indizieren und Bereitstellen von Videos. Diese Woche freuen wir uns, mehrere Verbesserungen in Media Services ankündigen zu können. Dazu zählen die allgemeine Verfügbarkeit der neuen Azure Media Services v3-API und Verbesserungen des Azure Media Player.
Livestreaming mit geringer Latenz, 24-Stunden-Transcodierung, CMAF und eine moderne, neue API (v3), die sofort einsatzbereit ist
Die Azure Media Services v3-API wurde im Mai auf der Microsoft Build 2018 angekündigt. Diese API stellt ein vereinfachtes Entwicklungsmodell bereit und ermöglicht eine bessere Integration mit wichtigen Azure-Diensten wie Event Grid und Azure Functions. Die API ist jetzt allgemein verfügbar und enthält viele praktische neue Funktionen. Beginnen Sie noch heute mit der Migration von Workloads in die Produktion, die mit der Vorschauversion der API erstellt wurden.
Neuerungen
Die neue Media Services v3-API ist ein wichtiger Meilenstein bei der Verbesserung der Entwicklungsfunktionen für Media Services-Kunden. Die neue API enthält SDKs für .NET, .NET Core, Java, Go, Python, Ruby und Node.js. Des Weiteren unterstützt die API die folgenden Szenarios.
Livestreaming mit geringer Latenz durch 24-Stunden-Transcodierung
LiveEvent, das die Channel-Entität der v2-API ersetzt, wurde stark verbessert.
Wir erhalten immer wieder Feedback zur Latenz beim Streamen von Liveereignissen. Der neue Modus zum Livestreaming mit geringer Latenz ist jetzt exklusiv mit LiveEvent in der v3-API verfügbar. Sie unterstützt eine End-to-End-Latenz von acht Sekunden, wenn sie mit dem neuen heuristischen Profil für geringe Latenz von Azure Media Player verwendet wird, oder eine Latenz von circa zehn Sekunden mit nativer HLS-Wiedergabe auf einem iOS-Gerät. Konfigurieren Sie Ihren Liveencoder so, dass er kleinere GOP-Größen von einer Sekunde verwendet. So können Sie Ihre gesamte Latenz schnell reduzieren, wenn Sie Inhalte für ein kleineres bis mittelgroßes Publikum streamen. Die End-to-End-Latenz hängt immer auch von Ihrem lokalen Netzwerk ab und kann zudem von einer CDN-Cachingschicht beeinträchtigt werden. Testen Sie Ihre Konfiguration, da die Latenz variieren kann.
Wir werden auch weiterhin an der Verbesserung dieser Lösung für geringe Latenz arbeiten. Im letzten Monat haben wir angekündigt, dass wir uns der Open Source-SRT Alliance anschließen, um Livestreaming mit geringer Latenz in Azure durch sichere und zuverlässige Datenerfassung in der Cloud zu verbessern. Im Rahmen dieser Ankündigung arbeiten wir bereits an der Unterstützung des SRT-Erfassungsprotokoll für LiveEvent.
Um die neue LowLatency-Funktion nutzen zu können, können Sie StreamOptionsFlag in LiveEvent auf LowLatency festlegen:
Sobald der Stream bereit ist, legen Sie auf der Demoseite des Azure Media Player die Option für die Wiedergabe auf „Low Latency Heuristics Profile“ (Heuristische Profile mit geringer Latenz) fest.
Wenn Sie ein Livevideo streamen, können Sie sich als Nächstes zwischen zwei Optionen für das Streamen langer Liveereignisse entscheiden. Wen Sie lineare Livestreams streamen möchten (24×7×365) sollten Sie einen lokalen Encoder mit einem „Pass-Through“-LiveEvent ohne Transcodierung verwenden. Wenn Sie die Livecodierung in der Cloud benötigen, ist die Ausführungszeit bei der v2-API auf acht Stunden eingeschränkt. Wir freuen uns sehr, dass wir die Unterstützung für die Dauer der Livetranscodierung mit dem neuen LiveEvent auf 24 Stunden erhöhen konnten.
Als letzte Neuerung haben wir mehrere aktualisierte RTMP(S)-basierte Encoder verifiziert, u.a. die aktuellen Releases von MediaExcel, Wirecast von Telestream, KB Series von Haivision und Switcher Studio.
Vereinfachte Entwicklung mit Event Grid und Azure Resource Manager
Um den Entwicklungsprozess in Azure-Lösungen für Medien zu vereinfachen, bieten wir nun über Azure Event Grid mehr Benachrichtigungen für häufige Vorgänge an. Sie können Zustandsänderungsereignisse in Job- und JobOutput-Vorgängen abonnieren, um Ihre benutzerdefinierten Medienanwendungen nahtloser integrieren zu können. Wenn Sie benutzerdefinierte Workflows in einer Transformation erstellen, können Sie Ihre eigenen Korrelationsdaten im Job-Objekt angeben. Diese Korrelationsdaten können aus den über Event Grid erhaltenen Benachrichtigungen extrahiert werden, um Workflows zu erstellen, die häufig auftretende Probleme mit Anwendungen mit mehreren Mandanten beheben oder um eine Integration mit Verwaltungssystemen für Medienobjekte von Drittanbietern zu ermöglichen. Wenn Sie einen Livestream überwachen, können Sie neue Ereignisse wie die Liveerfassung von Heartbeats oder verbundene und nicht verbundene Ereignisse des Upstreamliveencoders verwenden.
Sie können jedes Media Services-Ereignis über Code, Logic Apps, Azure Functions oder über das Azure-Portal abonnieren.
Mit dem Wechsel zu Azure Resource Manager (ARM) für die v3-API können Sie die folgenden Vorteile beim Verwalten von Transformationen, Liveereignissen, DRM-Schlüsseln, Streamingendpunkten und Ressourcen nutzen:
- Einfacherer Bereitstellung mit ARM-Vorlagen
- Anwenden der rollenbasierten Zugriffssteuerung (RBAC)
Vereinfachte Erfassung und Ressourcenerstellung
Das Erfassen von Inhalt in Media Services bestand früher aus mehreren Schritten, u.a. das Kopieren von Dateien in Azure Storage und das Erstellen von Ressourcen und Ressourcendateien. In der neuen API können Sie ganz einfach auf eine vorhandene Datei in Azure Storage mit einer SAS-URL zeigen, oder Sie können Inhalt über eine zugängliche HTTP(S)-URL erfassen.
var input = new JobInputHttp( baseUri: "https://nimbuscdn-nimbuspm.streaming.mediaservices.windows.net/2b533311-b215-4409-80af-529c3e853622/", files: new List<String> {"Ignite-short.mp4"} );
Außerdem haben wir das Erstellen von Ressourcen in Azure Blob Storage vereinfacht. Sie können den Containernamen jetzt direkt festlegen. Dann können Sie über die Speicher-APIs Dateien zum Container hinzufügen. Vorhandene v2-Ressourcen funktionieren auch in der neuen API. V3-Ressourcen sind allerdings nicht rückwärtskompatibel.
Streamen und dynamische Paketerstellung mit MPEG CMAF
Das aktuellste MPEG Common Media Application Format (CMAF) mit cbcs-Verschlüsselung wird jetzt offiziell unterstützt. CMAF (offiziell MPEG-A Part 19 oder ISO/IEC 23000-19) ist ein neues Multimediadateiformat, das Streamingdaten mit einem einzigen verschlüsselten, adaptiven Bitrateformat auf verschiedensten Gerätetypen (Apple iPhone, Android und Windows) speichert und bereitstellt. Dieses gemeinsame Format bietet Streamingdienstanbietern verbesserte Interoperabilität, Streaming mit geringer Latenz und erhöhte CDN-Cacheeffizienz.
Fügen Sie das Tag „format=“ zur URL Ihrer Streaming-URLs hinzu, um das neue CMAF-Format zu verwenden. Wählen Sie für iOS-Geräte den Manifesttypen HLS und für Windows- oder Android-Geräte DASH aus.
Verwenden Sie für ein MPEG-DASH-Manifest mit Inhalt im CMAF-Format format=mpd-time-cmaf:
https://<<your-account-name>>.streaming.media.azure.net/<<locator-ID>>/<<manifest-name>>.ism/manifest(format=mpd-time-cmaf)
Verwenden Sie für ein HLS-Manifest mit Inhalt im CMAF-Format format=m3u8-cmaf:
https://<<your-account-name>>.streaming.media.azure.net/<<locator-ID>>/<<manifest-name>>.ism/manifest(format=m3u8-cmaf)
Verwalten von Media Services über die Befehlszeile
Wir haben das Azure CLI 2.0-Modul für Media Services aktualisiert. Es enthält jetzt alle Features der v3-API. Das endgültige Media Services-CLI-Modul wird am 23. Oktober 2018 zum Download oder zur direkten Verwendung in Cloud Shell veröffentlicht. Die CLI wurde im Hinblick auf einfaches Skripten von Media Services-Ressourcen entwickelt. Verwenden Sie die CLI u.a. zum Abfragen von ausgeführten Aufträgen, Erstellen von Liveereignissen und Verwalten von Inhaltsschlüsseln. Das CLI-Modul unterstützt zudem Streamingendpunkte, Inhaltsschlüsselrichtlinien und Filter für dynamische Manifeste.
In den folgenden Schnellstarttutorials können Sie die neue API ausprobieren:
- Was ist Azure Media Services v3?
- Hochladen, Codieren und Streamen von Videos mit APIs
- Erstellen einer Auftragseingabe aus einer HTTPS-URL
- Analysieren von Videos mit Azure Media Services
- Livestreaming mit Azure Media Services v3 unter Verwendung von .NET Core
- Weiterleiten von Azure Media Services-Ereignissen an einen benutzerdefinierten Webendpunkt mithilfe der CLI
- Verwenden der dynamischen DRM-Verschlüsselung und des Lizenzbereitstellungsdiensts
Wir freuen uns auf Ihr Feedback!
Probieren Sie auch Microsoft Video Indexer aus (seit letztem Monat allgemein verfügbar). Sagen Sie uns Ihre Meinung zu diesen Veränderungen! Im MSDN-Forum und auf Stack Overflow können Sie Fragen stellen, und auf den UserVoice-Websites zu Azure Media Services und Video Indexer können Sie Anregungen und Vorschläge übermitteln. Sie können uns auch auf Twitter @MSFTAzureMedia und @Video_Indexer schreiben.