Annonce : 100 Gbps, connectivité la plus rapide du cloud public et mise à disposition de la connectivité de branche, de nouvelles fonctionnalités de sécurité cloud natives et de services de niveau de performance des applications
Étant donné que les entreprises déplacent de plus en plus de charges de travail critiques vers le cloud, nous aspirons à fournir des services de mise en réseau complets faciles à déployer, à gérer, à mettre à l'échelle et à superviser. Les clients continuent à demander de meilleures manières de se connecter au cloud, une meilleure protection de leurs charges de travail dans le cloud, une livraison optimale du niveau de performance des applications et des services de supervision plus complets.
Concernant la façon de se connecter, les clients avaient demandé des solutions à bande passante nettement plus large, car ils luttent pour acheminer des quantités massives de données vers le cloud afin de profiter des analyses avancées et du Machine Learning. La mise en réseau étendu définie par logiciel (Software Defined Wide Area Networking/SDWAN) tient une promesse incroyable, à savoir réduire les coûts en acheminant de manière intelligente plus de trafic sur Internet et en aidant les clients à mieux gérer la connectivité vers leurs branches. Le concept de centre de données virtuel s’est établi, mais générer de telles solutions à l’échelle internationale est toujours un défi. Avec actuellement plus de 54 régions Azure, dont le nombre continue d’augmenter, notre réseau global continue à s’étendre à de nouveaux emplacements à mesure que nous augmentons notre capacité totale. Les clients nous ont demandé de nouvelles manières de profiter de notre WAN global. Nous annonçons ExpressRoute 100Gbps Direct, ExpressRoute Global Reach, et la disponibilité générale d’Azure Virtual WAN, ainsi que des améliorations apportées aux réseaux virtuels et à DNS.
La sécurité est la préoccupation principale, car les entreprises doivent protéger leurs charges de travail critiques. Protéger les applications d’intentions malveillantes est essentiel, de même que le contrôle d’accès complet pour toutes les ressources. Le cloud peut vous aider à adopter une posture de sécurité consistant à ne jamais faire confiance, ainsi qu’un modèle DevOps de gestion de la sécurité. La mise à l'échelle, la gestion et la compréhension des stratégies de sécurité devient beaucoup plus facile à appliquer avec des solutions cloud natives. Nous annonçons la disponibilité générale du pare-feu Azure GA ainsi que d’améliorations apportées à la protection DDoS et au pare-feu d'applications web.
Le niveau de performance des applications, la disponibilité et la résilience sont également essentiels pour fournir de charges de travail à la fois globales et régionales. Fondamentalement, le cloud a été conçu pour traiter l’évolutivité des applications afin de traiter de manière dynamique différents types de modèles de trafic. Associée à notre réseau global, la plateforme Azure nous permet naturellement non seulement d’accélérer des services Microsoft tels que Bing, Office 365 et Xbox, mais encore, de vous aider à accélérer vos applications. Nous annonçons une préversion d’Azure Front Door, la disponibilité générale d’Azure CDN, ainsi que des améliorations apportées à Application Gateway et à Traffic Manager.
Le modèle DevOps requiert que votre équipe supervise l’intégrité et le niveau de performance de vos applications. Le cloud peut fournir des aperçus encore améliorés de vos services en vous permettant de mesurer, de résoudre les problèmes, d’alerter et d’agir. Nous exécutons Azure 24h/24, 7j/7 et 365j/an et avons donc une expérience opérationnelle et une très bonne compréhension des pressions exercées sur nos propres équipes opérationnelles et des exigences en matière de supervision pour fournir une expérience de classe mondiale. Nous annonçons une préversion de TAP de réseau virtuel accompagnée d’améliorations apportées à Network Watcher.
Voici un résumé de nos nouveautés en matière de services de mise en réseau et d’améliorations de services existants pour vous aider à vous connecter au cloud, à protéger vos charges de travail, à fournir des performances optimales et à superviser votre service.
Azure vous aide à connecter, à protéger, à livrer et à superviser vos services
Connexion
10 x plus rapide : connectivité ExpressRoute Direct 100 Gbps
Azure repousse les limites de la connectivité du cloud. ExpressRoute Direct fournit une connectivité 100G aux clients qui ont besoin de bandes passantes extrêmes. C’est 10 x plus rapide que les autres clouds. Les clients Entreprise viennent nous voir avec des scénarios d’ingestion de quantités massives de données, par exemple pour la télémédecine, la distribution de contenu et l’IoT. ExpressRoute Direct vous permet d’envoyer 100 Gbps de trafic réseau à des services Azure, tels que le stockage Azure et les réseaux virtuels Azure. Tout votre trafic peut être sur un circuit ExpressRoute 100G unique, ou vous pouvez répartir les 100G sur vos unités opérationnelles en combinant des circuits ExpressRoute de 40G, 10G, 5G, 2G et 1G. Par défaut, ces circuits sont des circuits ExpressRoute standard fournissant une connectivité à toute région Azure de la même région géographique (par ex., Amérique du Nord, Europe, Australie, Japon, etc.). Vous pouvez également désigner des circuits comme circuits ExpressRoute Premium fournissant une connectivité globale. Cette flexibilité vous permet de satisfaire aux exigences d’unités opérationnelles spécifiques. Par exemple, une unité opérationnelle peut nécessiter une bande passante large pour accéder à des services au sein de la région Azure locale avec un circuit ExpressRoute standard de 40G. Une autre unité opérationnelle peut nécessiter une connectivité globale de 2G et utiliserait donc un circuit ExpressRoute Premium de 2G. C’est vous qui décidez. Étant donné qu’ExpressRoute est destiné à des charges de travail critiques, ExpressRoute Direct, tout comme ExpressRoute, fournit une connectivité physique via deux routeurs physiques dans une configuration active-active. En savoir plus sur ExpressRoute Direct.
ExpressRoute Global Reach : connexion privée de vos sites
ExpressRoute Global Reach vous permet de connecter deux circuits ExpressRoute entre eux. Vos sites déjà connectés à ExpressRoute peuvent maintenant échanger des données de manière privée via leurs circuits ExpressRoute. Par exemple, une société multinationale avec des centres de données à Londres et à Tokyo disposant chacun d’un circuit ExpressRoute peut activer ExpressRoute Global Reach de telle manière que ces sites puissent s’envoyer mutuellement du trafic de manière privée avec leurs circuits ExpressRoute locaux et le réseau global de Microsoft. ExpressRoute Global Reach peut être activé à la fois sur des circuits ExpressRoute Standard et ExpressRoute Premium. La fonctionnalité ExpressRoute Global Reach est disponible dans les pays suivants : Hong Kong (R.A.S.), Irlande, Japon, Pays-Bas, Royaume-Uni et États-Unis. Elle sera bientôt disponible en Corée et à Singapour. D’autres emplacements seront disponibles plus tard cette année. En savoir plus sur ExpressRoute Global Reach.
Disponibilité générale de Virtual WAN
Connectivité S2S 20 Gbps, nouvelles fonctionnalités et un écosystème de partenaires croissant
Connecter 50 ou 100 appareils de branches à un service VPN relève du défi. Azure Virtual WAN, qui simplifie la connectivité des succursales à grande échelle pour des scénarios branche/Azure et branche/branche via Internet, a été présenté cet été. Nous avons conçu Virtual WAN pour de grandes entreprises clientes des secteurs de la grande distribution, de la médecine, de la fabrication, du pétrole et du gaz qui cherchent à profiter de SDWAN pour connecter leurs branches à Azure et entre elles. L’utilisation de SDWAN et d’appareils VPN fournis par notre écosystème Virtual WAN vous permet de bénéficier de l’approvisionnement, de la configuration et de l’évolutivité automatisés ainsi que d’un débit élevé. Virtual WAN prend en charge une connectivité de branche pouvant atteindre 20 Gbps. Ceci correspond à 20 x plus de connectivité de nos passerelles VPN. La connectivité des branche devient maintenant gérable. Virtual WAN est à présent généralement disponible.
Microsoft recommande aux clients Office 365 d’utiliser des répartitions locales via Internet pour accéder le plus rapidement possible au réseau global de Microsoft et profiter de l’écosystème à nœud de périphérie distribué d’Office 365. Le principal objectif de la conception d’un réseau client est d’optimiser la latence vers la porte d’entrée Office 365 la plus proche et de minimiser l’ajout de requêtes Office 365 sur le réseau privé du client. Au lieu d’une transmission vers un emplacement centralisé ou d’un routage des connexions via un autre service cloud proposant l’analyse du trafic sur Internet, le trafic clé d’Office 365 doit pouvoir sortir en utilisant Internet le plus près possible des emplacements (branches) de l’utilisateur et arriver directement dans le réseau Microsoft. Cette approche est appelée répartition locale et directe via Internet et est souvent le fait de clients pour des applications sélectionnées, spécifiées par une stratégie. Les clients peuvent implémenter une répartition locale et directe via Internet pour les services Office 365 en automatisant leurs stratégies de routage vers des branches à l’aide d’un service web ou d’une solution SD-WAN d’un partenaire qualifié. Les clients Azure Virtual WAN peuvent configurer leurs stratégies de répartition d’Office 365 via Internet dans le portail Azure, et cette stratégie est appliquée aux appareils SD-WAN pris en charge dans les branches. Ceci garantit un échappement Interne local et direct de flux Office 365 clés, donc une expérience optimale à l’utilisateur final.
Notre écosystème Virtual WAN continue à grandir. En plus de Citrix et de Riverbed, les solutions Virtual WAN sont désormais disponibles chez 128 Technology, Barracuda, Check Point, NetFoundry et Palo Alto. Les solutions Virtual WAN à venir seront disponibles chez CloudGenix, Nuage Networks, Silver Peak, Versa Networks et VeloCloud.
Écosystème Azure Virtual WAN
Les nouvelles fonctionnalités de la préversion de Virtual WAN incluent P2S VPN et ExpressRoute. Avec P2S VPN, vous pouvez utiliser un client OpenVPN pour vous connecter à votre service Virtual WAN. Ceci permet au personnel nomade d’accéder de manière sécurisée à des ressources via Virtual WAN à partir d’ordinateurs portables et d’autres appareils mobiles, en déplacement ou à la maison. Azure P2S VPN est disponible dans Azure Virtual WAN et peut prendre simultanément en charge jusqu’à 10 000 utilisateurs distants par hub Virtual WAN avec un débit de 18 Gpbs.
Avec ExpressRoute dans votre service Virtual WAN, vos branches peuvent utiliser Internet de manière sécurisée pour accéder à Virtual WAN, puis ce trafic peut être acheminé de manière privée vers votre centre de données connecté à ExpressRoute.
Azure Virtual WAN simplifie toute votre connectivité
En savoir plus sur Virtual WAN.
VPN redondant dans une zone et passerelles de réseau virtuel ExpressRoute
De nombreux clients utilisent les réseaux VPN et ExpressRoute pour accéder à leurs réseaux virtuels. Pour améliorer la résilience, l’évolutivité et la disponibilité des passerelles, nous avons maintenant un nouveau réseau VPN redondant dans une zone et des passerelles ExpressRoute Gateways qui prennent en charge les zones de disponibilité Azure. Ces nouvelles passerelles redondantes dans une zone/de zones vous permettront de déployer Azure VPN et des passerelles Azure ExpressRoute dans des zones de disponibilité Azure, ce qui aboutira à leur séparation physique et logique au sein d’une région pour protéger votre connectivité réseau locale vers Azure des défaillances au niveau des zones. Nous avons également réduit la durée du déploiement de ces passerelles. Pour plus d’informations sur les passerelles redondantes dans une zone, consultez notre documentation.
Les passerelles redondantes dans une zone offrent une meilleure résilience
Préfixe d’adresse IP publique
Un préfixe d’adresse IP publique est une plage contiguë d’adresses IP pour vos points de terminaison Azure publics, qui vous permet d’associer vos ressources Azure à des adresses IP publiques à partir d’une plage fixe connue. Ceci réduit considérablement les frais généraux de gestion, car il n’est plus nécessaire de modifier les règles du pare-feu lorsque vous assignez des adresses IP à de nouvelles ressources. Prendre la préversion en main et en savoir plus sur le Préfixe d’adresse IP publique.
Équilibreur de charge : règles de trafic sortant et réinitialisation de TCP sur Inactif
Les règles de trafic sortant facilitent la configuration de la traduction d'adresses réseau (NAT) de sortie basée sur un pool de l’équilibreur de charge. Vous pouvez utiliser une configuration déclarative pour mettre à l'échelle et régler votre configuration de sortie en fonction de vos besoins spécifiques.
Configuration simple de l’équilibreur de charge
Les règles de trafic sortant décrivent quel pool de machines virtuelles doit être déplacé vers quelles adresses IP publiques, combien de ports SNAT de sortie doivent être alloués et comment modifier le délai d’expiration de sortie inactif. Vous pouvez simplifier la création de listes vertes en utilisant des règles de trafic sortant avec un préfixe d’adresse IP publique. Consultez Règles de trafic sortant pour plus de détails.
Vous pouvez optimiser le niveau de performance des applications en activant les réinitialisations de TCP sur Inactif pour chaque règle, pour des mises en production de la connexion selon les règles, sans modification de l’application. Lorsqu’ils sont activés, les paquets de réinitialisation de TCP sont envoyés aux points de terminaison du client et du serveur pendant le délai d’inactivité. Consultez Réinitialisation du protocole TCP pendant le délai d’inactivité pour plus de détails.
Réseau virtuel pour conteneurs
Le plug-in Azure Container Networking Interface (CNI) attache des conteneurs à un réseau virtuel. Il fournit le riche ensemble de fonctionnalités d’Azure Networking à des conteneurs grâce à l’utilisation de la même pile SDN que celle qui alimente les machines virtuelles Azure. Les conteneurs peuvent maintenant se connecter à des réseaux virtuels pairs et localement via ExpressRoute ou un réseau VPN entre deux sites et accéder à des services tels que Stockage et SQL, qui sont protégés par un point de terminaison de service de réseau virtuel. Les règles du groupe de sécurité réseau (NSG) et de l’itinéraire défini par l’utilisateur (UDR) peuvent être appliquées directement à des conteneurs.
Azure CNI est utilisé par Azure Kubernetes Service. Il est également intégré dans le service Azure Container Instance Service et dans les services Azure WebApps pour App Services, qui utilisent une pile SDN améliorée pour une injection rapide et sécurisée de conteneurs dans des réseaux virtuels clients. Pour plus d’informations, reportez-vous à la documentation.
Prise en charge de l’enregistrement d’alias (référence) pour Azure DNS
Les clients Azure DNS ont parfois du mal à suivre le cycle de vie des ressources Azure depuis l’intérieur de leurs zones DNS. Par exemple, lorsque la ressource d’adresse IP publique associée à une application est supprimée, le client devait mettre à jour manuellement sa zone DNS pour empêcher une référence non résolue qui pouvait potentiellement bloquer son trafic. Nous annonçons la prise en charge des enregistrements Alias pour les zones DNS. Ceci permet aux clients de référencer d’autres ressources Azure depuis l’intérieur de leurs zones DNS, de telle manière que les enregistrements DNS sont mis à jour automatiquement lors d’un événement de cycle de vie sur les ressources Azure référencées. Nous prenons en charge les références des enregistrements d’alias sur deux ressources Azure (adresse IP publique et Azure Traffic Manager), des ressources supplémentaires étant prévues pour le futur. Pour plus de détails sur la prise en charge d’enregistrements d’alias dans Azure DNS, consultez ce billet de blog.
Protection
Pare-feu Azure : disponibilité générale, nouvelles fonctionnalités
Le pare-feu Azure, maintenant appelé GA, offre un filtrage avec état complet du trafic au niveau des réseaux et des applications pour les ressources de réseau virtuel, avec une haute disponibilité et une évolutivité intégrées dans le cloud fournies en tant que service. Les clients peuvent protéger leurs réseaux virtuels en filtrant le trafic sortant, entrant, vocal, VPN et ExpressRoute. L’application de stratégies de connectivité est prise en charge dans plusieurs abonnements de réseaux virtuels et Azure. La connexion centralisée avec Azure Monitor vous permet d’archiver les journaux dans un compte de stockage, de transmettre en continu des événements vers votre Event Hub, de les envoyer vers Log Analytics ou vers le SIEM de votre choix. Le pare-feu Azure prend en charge les balises FQDN pour permettre le trafic vers des services Microsoft bien connus (par ex., ASE, Azure Backup et Windows Update) et la configuration du NAT de destination.
Pour plus d’informations, reportez-vous à la documentation du pare-feu Azure.
Nous travaillons avec notre écosystème de partenaires pour fournir des fonctionnalités de stratégie de sécurité basées sur SaaS à l’aide des API REST publiques du pare-feu Azure. Des préversions des solutions seront disponibles plus tard dans l’année, notamment la gestion centralisée avec Barracuda et AlgoSec AlgoSaaS, et la gestion de la stratégie de sécurité pour Azure Kubernetes Service (AKS) pour conteneurs avec Tufin Orca.
Écosystème Azure Firewall croissant
Analyse des attaques de la protection DDos
Les attaques DDoS sont de plus en plus sophistiquées et fréquentes. Elles touchent environ deux entreprises sur cinq. Les attaques DDoS provoquent des interruptions de service. Grâce à la prolifération des appareils d’IoT corrompus qui servent d’armes et sont utilisés comme botnets pour lancer des attaques DDoS de grande envergure, les pirates informatiques sont bien équipés pour atteindre leurs objectifs malfaisants. Azure DDoS Protection fournit des mesures contre les menaces DDoS sophistiquées.
Nous annonçons la disponibilité générale de 3 nouvelles fonctionnalités pour Azure DDoS Protection : rapports de prévention des attaques, journaux de flux de prévention des attaques et réponse rapide DDoS. Les clients qui protègent leurs réseaux virtuels contre les attaques DDoS avec Azure DDoS Protection obtiennent une visibilité détaillée du trafic des attaques et des mesures prises pour les atténuer par le biais de paramètres de diagnostic dans Azure Monitor. DDoS Rapid Response permettra aux clients d’engager des experts DDoS pendant une attaque, pour un support spécialisé.
Attack Mitigation Reports fournit pratiquement en temps réel des informations sur une attaque et des rapports complets résumant l’attaque après son atténuation. Attack Mitigation Flow Logs fournit des paquets de données à 5 tuples au niveau du réseau (protocole, source/port de destination, source/IP de destination) et indique les mesures prises pendant une attaque DDoS. Ces données peuvent être intégrées dans des systèmes Security information and Event Management (SIEM) via Event Hub pour une supervision pratiquement en temps réel. Les journaux des rapports et des flux d’atténuation peuvent être intégrés dans Azure Analytics pour visualiser les données.
DDoS Attack Mitigation Reports
Les clients ont désormais accès à l’équipe DDoS Rapid Response (DRR) pour bénéficier du support de spécialistes pendant une attaque. L’équipe DRR aide en enquêtant sur l’attaque, personnalise les atténuations pendant une attaque et publie une analyse de cette dernière. Pour plus de détails, reportez-vous à ce billet de blog et à la documentation du produit.
Stratégies de point de terminaison de service Azure Virtual Network
Les stratégies de point de terminaison de service du réseau virtuel Azure vous permettent d’empêcher l’accès non autorisé aux ressources des services Azure à partir de votre réseau virtuel. Les stratégies de point de terminaison permettent un contrôle plus granulaire des balises de service du groupe de sécurité réseau (NSG). Vous pouvez ne permettre l’accès qu’à des ressources de services Azure spécifiques (par ex., des comptes de stockage Azure) avec les stratégies de point de terminaison de service. Une préversion de la fonctionnalité est disponible pour stockage Azure. Pour plus d’informations, reportez-vous à la documentation des stratégies du point de terminaison de service.
Fournir
Azure Front Door Service : équilibrage de charge HTTP global
Azure Front Door Service (AFD) est un point d’entrée global et évolutif qui utilise notre périmètre de réseau intelligent, vous permettant de créer des applications web rapides, sécurisées et hautement évolutives. Conçu pour prendre en charge les plus grandes charges de travail web de Microsoft, notamment Bing, Office 365, Xbox Live, MSN et Azure DevOps, AFD offre une fiabilité à l’échelle du web et une évolutivité.
Azure Front Door Service accélère vos applications
Actuellement implanté dans 33 pays à des emplacements du périmètre de réseau Microsoft connectés par notre WAN global, AFD améliore le niveau de performance de vos applications grâce à leur accélération et au déchargement SSL, autorise le routage de l’ensemble de votre trafic HTTP vers votre serveur principal le plus proche et offre une fiabilité de classe Entreprise grâce au basculement instantané automatisé.
Avec le routage d’AFD en fonction du tracé, la mise en cache incluse et la sécurité de la couche d’application, vous pouvez créer des applications globales modernes dans Azure. Un plan de contrôle et un tableau de bord centralisés vous permettent de gérer et de superviser le trafic des services et des serveurs principaux de microservices globaux à l’intérieur ou à l’extérieur d’Azure.
L’intégration d’AFD avec Azure Web Apps, Azure Monitor et Log Analytics vous permet d’accélérer et de livrer facilement vos applications avec une latence réduite, une plus grande fiabilité et un meilleur aperçu du trafic global. Consultez la documentation AFD pour découvrir comment accélérer votre application.
Disponibilité générale d’Azure CDN chez Microsoft
Les services cloud nécessitent de la fiabilité, une mise à l'échelle, de l’agilité et des performances. Azure CDN fournit une plateforme CDN facile à installer et à utiliser pour distribuer vos vidéos, vos fichiers, vos sites web et d’autres contenus HTTP dans le monde entier. Avec les services CDN de Verizon, d’Akamai et, désormais, de Microsoft, Azure CDN est conçu dès le départ pour livrer les meilleurs services CDN de leur catégorie par le biais de notre écosystème à CDN multiple pour vos applications Azure.
L’écosystème à CDN multiple d’Azure CDN vous permet de gérer CDN comme une ressource Azure par le biais d’un modèle piloté par API à la demande. Cette flexibilité, associée à trois infrastructures CDN robustes, vous permet d’ajouter facilement un CDN multiple comme composant de votre stratégie de livraison de contenu. Ces solutions CDN, utilisées seules, côte à côte dans une solution à CDN multiple ou superposées pour maximiser la fiabilité, le déchargement et les performances, vous permettent de vous concentrer sur l’optimisation de votre livraison en fonction de vos besoins métier. Pour plus d’informations, voir la documentation Azure CDN.
Mise à l’échelle automatique de la passerelle d’application, performance multipliée par cinq, redondance dans une zone et analyse
Application Gateway et le pare-feu d'applications web fournissent un contrôleur de livraison d’applications (ADC) en tant que service. Nous annonçons la préversion d’une nouvelle option élastique de mise à l’échelle automatique qui provoque une montée en puissance ou une baisse de puissance basée sur le modèle de trafic de l’application. La gestion est considérablement simplifiée, puisque les clients n’ont pas besoin d’approvisionner préalablement pour anticiper des volumes de trafic. La mise à l’échelle automatique prend également en charge des zones Azure pour garantir la résilience en cas de défaillance de zones. Un déploiement unique d’Application Gateway ou de WAF peut maintenant couvrir plusieurs zones de disponibilité séparées physiquement et logiquement et permet d’acheminer du trafic vers des serveurs principaux dans chaque zone. Le service Application Gateway mis à l’échelle automatiquement offre également de meilleurs niveaux de performances, une durée d’approvisionnement réduite et une prise en charge des adresses IP virtuelles statiques. La performance de déchargement SSL est maintenant 5 x meilleure. Reportez-vous à la documentation pour obtenir plus de détails et regarder des tutoriels.
Pare-feu d'applications web redondant dans une zone
Nous annonçons une préversion de l’intégration d’Application Gateway avec Azure Kubernetes Service (AKS) Ingress Controller. Le contrôleur Application Gateway Ingress s’exécute en tant que pod au sein du cluster AKS et permet à Application Gateway de servir d’entrée à un cluster AKS. Il écoute Kubernetes Ingress Resources à partir du serveur de l’API Kubernetes, convertit en configuration Azure Application Gateway et met à jour Application Gateway par le biais d’Azure Resource Manager (ARM). Pour plus d’informations, reportez-vous à notre documentation.
Le pare-feu d'applications web (WAF) présente une préversion des améliorations apportées à la configurabilité, qui permettent aux clients de contrôler le corps de la demande et la taille du fichier à charger. Les clients peuvent activer/désactiver l’inspection de la charge utile du corps de la demande. Le pare-feu d'applications web permet d’exclure les en-têtes de la requête, les cookies ou les chaînes de requêtes de l’évaluation des règles par le biais de listes d’exclusion. Les clients peuvent donc réduire les faux positifs en créant une liste verte de paramètres sûrs connus, tels que les porteurs des règles de WAF. Reportez-vous à la documentation pour obtenir plus de détails et regarder des tutoriels.
Vous trouverez plus d’options de routage et de point de terminaison dans Azure Traffic Manager.
Les clients peuvent désormais ajouter leurs points de terminaison à un profil Traffic Manager avec des adresses IPv4 ou IPv6 et obtenir des réponses de type A/AAAA pour les requêtes DNS concernant ce profil. Cette option, actuellement limitée à des points de terminaison de type externe, permet à des points de terminaison auxquels aucun nom de DNS n’est associé de faire partie d’une méthode de routage de Traffic Manager et de bénéficier des avantages de connexions hautement disponibles à faible latence pour les utilisateurs finaux. Il faut y ajouter une nouvelle méthode de routage, le routage à valeurs multiples, grâce auquel vous pouvez définir combien de points de terminaison intègres doivent être retournés dans la réponse à une requête DNS unique. Cette capacité augmente la fiabilité de votre application en proposant à l’appelant plusieurs options de renouvellement de la tentative avant de lancer une nouvelle requête pour un point de terminaison intègre.
Traffic Manager prend maintenant en charge des points de terminaison multi-locataires en vous donnant la possibilité de spécifier des en-têtes (y compris des en-têtes hôtes) lors des vérifications d’intégrité initiées par Traffic Manager. Ceci permet une vérification précise de l’intégrité des points de terminaison multi-locataires et le routage approprié du trafic. Pour en savoir plus sur ces nouvelles fonctionnalités de Traffic Manager, consultez la documentation sur la supervision des points de terminaison.
Surveiller
TAP de réseau virtuel : visibilité pour la supervision, la sécurité et les performances
Nous annonçons une préversion du premier TAP de réseau distribué natif disponible dans tous les clouds publics. Le TAP de réseau virtuel Azure fournit une mise en miroir continue du trafic réseau des machines virtuelles dans un collecteur de paquets sans utiliser d’agents.
Le TAP de réseau virtuel Azure permet une supervision hors bande
Les solutions de surveillance hors bande, de sécurité et de performance peuvent maintenant être déployées dans votre réseau virtuel. Ces solutions sont disponibles chez Big Switch Networks, ExtraHop, Fidelis, Flowmon, Gigamon, Ixia, Netscout, Nubeva, RSA et Vectra.
Écosystème de TAP de réseau virtuel Azure
Pour plus d’informations, reportez-vous à la documentation de TAP de réseau virtuel Azure.
Résumé
Nous sommes pleinement engagés pour vous aider à vous connecter à Azure, à protéger vos charges de travail, à proposer une excellente expérience de mise en réseau et à fournir une supervision approfondie, afin de simplifier votre déploiement et de réduire vos coûts opérationnels tout en vous aidant à améliorer le support apporté à vos clients. Lors d’Ignite 2018, nous vous donnerons plus de détails concernant nos annonces. Voici une liste de nos sessions techniques. Nous continuerons à fournir des services de mise en réseau innovants et des conseils pour vous aider à exploiter au mieux les avantages du cloud. Nous sommes impatients de découvrir les nouveaux scénarios rendus possibles par nos services de mise en réseau. Comme toujours, nous attendons vos commentaires.