Runtime ONNX open source

Publié le mardi 4 décembre 2018

Le runtime ONNX (Open Neural Network Exchange), un moteur d’inférence hautes performances pour les modèles Machine Learning au format Open Neural Network Exchange (ONNX), est maintenant disponible en open source. ONNX Runtime est compatible avec ONNX version 1.2 et est fourni dans des packages Python qui prennent en charge l’inférence de CPU et de GPU. Avec la publication du projet open source ONNX Runtime, les développeurs ont la liberté de personnaliser et d’intégrer le moteur d’inférence ONNX dans leur infrastructure existante directement à partir du code source, ainsi que de le compiler et de le construire sur divers systèmes d’exploitation. 

Présentation du format ONNX

Open Neural Network Exchange (ONNX) est la base d’un écosystème ouvert d’interopérabilité et d’innovation dans l’écosystème de l’intelligence articielle que Microsoft a co-développé pour rendre l’intelligence articielle plus accessible et plus utile pour tous. Format ouvert pour représenter les modèles Machine Learning, ONNX permet aux développeurs dans le domaine de l’intelligence artificielle de choisir la bonne infrastructure pour leurs fournisseurs de tâches et de matériel afin de rationaliser les optimisations.   

Pour en savoir plus sur ONNX Runtime, consultez le blog.

Related feedback