KI-Anwendungen zentral verwalten

Nutanix erweitert KI-Plattform

Nutanix hat seine KI-Infrastrukturplattform um das Cloud-native Angebot Nutanix Enterprise AI erweitert. Anwender können damit KI-Modelle und Daten auf Rechenressourcen betreiben, kontrollieren und steuern. Es lässt sich auf Kubernetes-Plattformen bereitstellen, am Edge, im Rechenzentrum und auf Public Cloud-Services wie AWS EKS, Azure AKS und Google GKE.

Bild: �Worldwide/stock.adobe.comBild: ©Worldwide/stock.adobe.com

Bei generativer KI handelt es sich um einen inhärent hybriden Workload. Neue Anwendungen werden oft in der Public Cloud erstellt, während die Modelle auf Basis privater Daten in On-premises-Umgebungen angepasst und feinjustiert werden. Die Inferenzierung findet hingegen in der unmittelbaren Nähe des Betriebsorts der Geschäftslogik statt, ob am Edge, On-Premises oder in der Public Cloud. Dieser verteilte hybride GenAI-Workflow kann jedoch für Unternehmen eine Herausforderung hinsichtlich Komplexität, Datenschutz, Sicherheit und Kosten darstellen. Hier setzt das neue Produkt Nutanix Enterprise AI an.

Flexible Modellauswahl

Das System soll ein konsistentes Multicloud-Betriebsmodell sowie einfache Möglichkeit bieten, LLMs mithilfe der Nvidia NIM-optimierten Inferencing-Microservices und quelloffener Basismodelle von Hugging Face bereitzustellen, zu skalieren und zu betreiben. Dadurch können Anwender eine Enterprise-GenAI-Infrastruktur mit dem Maß an Resilienz, Betriebsmöglichkeiten und Sicherheit aufbauen, das sie für ihre Anwendungen benötigen. Abgerechnet wird das Produkt auf Basis von Infrastrukturressourcen, nicht etwa Token-basiert.

Nutanix, Inc.

Dieser Artikel erschien in IT&Production 4 (Mai) 2025 - 09.05.25.
Für weitere Artikel besuchen Sie www.it-production.com