Hoppa till huvudinnehåll
TILLGÄNGLIGT NU

ONNX Runtime för öppen källkod

Publiceringsdatum: 04 december, 2018

ONNX Runtime, en inferensmotor med höga prestanda för maskininlärningsmodeller i formatet Open Neural Network Exchange (ONNX)finns nu för öppen källkod. ONNX Runtime är kompatibelt med ONNX-version 1.2 och levereras i Python-paket som stöder både CPU- och GPU-inferens. Med lanseringen av ONNX Runtime-projektet för öppen källkod får utvecklare friheten att anpassa och integrera ONNX-inferensmotorn till sin befintliga infrastruktur direkt från källkoden. De kan dessutom kompilera och skapa den i en mängd olika operativsystem. 

Vad är ONNX-formatet? 

Open Neural Network Exchange (ONNX) är grunden till ett öppet ekosystem med samverkan och innovation i AI-ekosystemet som Microsoft var med och utvecklade för att göra AI mer åtkomligt och värdefullt för alla. ONNX är ett öppet format för att representera maskininlärningsmodeller och gör att AI-utvecklare kan välja rätt ramverk för sin uppgift och att maskinvaruleverantörer kan effektivisera optimeringar.   

Om du vill veta mer om ONNX Runtime kan du läsa bloggen

  • Maskininlärning
  • Microsoft Connect