Anzeige

Fünfmal schnellere Deep-Learning-Inferenz

Bild: The MathWorks GmbHBild: The MathWorks GmbH
Cuda Code-Generierung mit NIVIDA TensorRT

Matlab bietet ab sofort eine Integration von Nvidia TensorRT über GPU Coder. Dies erleichtert die Entwicklung neuer Modelle für KI und Deep Learning in Matlab. Dank der neuen Integration können in Matlab entwickelte Deep-Learning-Modelle auf Nvidia-GPUs mit hohem Durchsatz und geringer Latenz ausgeführt werden. Interne Benchmarks zeigen, dass von Matlab generierter Cuda-Code in Kombination mit TensorRT Alexnet mit fünfmal höherer Leistung und VGG-16 mit 1,25-mal höherer Leistung bereitstellen kann als die Deep-Learning-Inferenz der entsprechenden Netze in TensorFlow.

The MathWorks GmbH

Dieser Artikel erschien in inVISION 5 2018 - 30.10.18.
Für weitere Artikel besuchen Sie www.invision-news.de