ONNX Runtime för öppen källkod
Publiceringsdatum: 04 december, 2018
ONNX Runtime, en inferensmotor med höga prestanda för maskininlärningsmodeller i formatet Open Neural Network Exchange (ONNX)finns nu för öppen källkod. ONNX Runtime är kompatibelt med ONNX-version 1.2 och levereras i Python-paket som stöder både CPU- och GPU-inferens. Med lanseringen av ONNX Runtime-projektet för öppen källkod får utvecklare friheten att anpassa och integrera ONNX-inferensmotorn till sin befintliga infrastruktur direkt från källkoden. De kan dessutom kompilera och skapa den i en mängd olika operativsystem.
Vad är ONNX-formatet?
Open Neural Network Exchange (ONNX) är grunden till ett öppet ekosystem med samverkan och innovation i AI-ekosystemet som Microsoft var med och utvecklade för att göra AI mer åtkomligt och värdefullt för alla. ONNX är ett öppet format för att representera maskininlärningsmodeller och gör att AI-utvecklare kan välja rätt ramverk för sin uppgift och att maskinvaruleverantörer kan effektivisera optimeringar.
Om du vill veta mer om ONNX Runtime kan du läsa bloggen