MLOps bringt ML-Modelle schnell in die Produktion

Von Stefan Bergstein*

Vom Modelltraining über die Containerisierung und das Deployment bis hin zum Monitoring – Stefan Bergstein, Chief Architect Manufacturing bei Red Hat, erläutert die entscheidenden Vorteile von  MLOps-Plattformen,  die die gesamte ML-Prozesskette effizient abdecken.

KI und ML (Machine Learning) sind Themen, die für Unternehmen immer wichtiger werden. ChatGPT hat in gezeigt, in welche Richtung die Entwicklung gehen kann. In diesem Kontext gewinnt auch MLOps (Machine Learning Operations) zunehmend an Relevanz. MLOps ähnelt dem etablierten DevOps-Konzept, wobei der Schwerpunkt allerdings auf der Bereitstellung und Wartung sowie dem Retraining von maschinellen Lernmodellen und nicht auf der Versionierung und dem Deployment von Code und Software liegt.

Prinzipiell ermöglicht MLOps eine effiziente Entwicklung, Bereitstellung und Verwaltung von Machine-Learning-Modellen. Durch die Anwendung von DevOps- und GitOps-Prinzipien können Unternehmen dabei den iterativen Prozess der Integration von ML-Modellen vereinfachen und automatisieren, und zwar in Bezug auf Softwareentwicklungsprozesse, den Produktions-Rollout, die Überwachung, das Retraining und das erneute Deployment.

Damit adressiert MLOps zentrale Herausforderungen, die mit dem ML-Deployment verbunden sind. So müssen Data Scientists, die für die ML-Modellierung verantwortlich sind, die richtigen ML-Tools auswählen und bereitstellen. Zudem sind Trainings, Tests und erneute Trainings des ML-Modells mit einer hohen Komplexität und auch mit einem großen Zeitaufwand verbunden. Nicht zuletzt erfordert die Skalierung von KI-Implementierungen die Nutzung kostenintensiver GPU (Graphics Processing Unit)-Ressourcen für die Hardwarebeschleunigung.

Autor: Stefan Bergstein ist Chief Architect Manufacturing bei Red Hat

Mit einer MLOps-Plattform, die alle zentralen Funktionen für ein konsistentes ML-Lifecycle-Management in Rechenzentren, Public-Cloud-Computing- und Edge-Computing-Umgebungen bietet, können Unternehmen diese Herausforderungen effizient bewältigen. Data Scientists können damit ML-Modelle schnell und mit vollständigem Support entwickeln, trainieren, testen und iterieren, ohne auf die Provisionierung der Infrastruktur warten zu müssen. So wird die Flexibilität erhöht, indem eine schnelle und häufige Einführung kleiner, inkrementeller Änderungen unterstützt wird, die zur Aufrechterhaltung der Zuverlässigkeit von maschinellen Lernmodellen beiträgt.

Zudem können durch den MLOps-Einsatz Data Scientists ihre Zeit für die Modellentwicklung verwenden und IT-Teams die Modellbereitstellung und -wartung fokussieren. Die Data Scientists übernehmen dabei Aufgaben wie die Datenerfassung und -vorbereitung, das Training oder die Validierung und die ML- und DevOps-Ingenieure das Deployment und das Serving. MLOps trägt dadurch zu einer optimierten Zusammenarbeit von Data-Science- und Softwareentwicklungs-Teams sowie Betriebsbereichen bei. Das heißt, es wird die Brücke geschlagen von der Entwicklung der ML-Modelle bis zum Einsatz in einer Produktivumgebung.

Die effiziente Umsetzung einer solchen Prozesskette unterstützen zwei konkrete Lösungsansätze. Zum einen können ML-Modelle in Container verpackt und unter Nutzung von DevOps- und GitOps-Verfahren effizient in Edge-Umgebungen bereitgestellt werden. Container und Kubernetes sind ohnehin die Grundlagen für die Bewältigung von KI-Workloads und die Beschleunigung des ML-Lifecycles. Sie bieten Data Scientists die im Hinblick auf ML-Modelle benötigte Agilität, Flexibilität, Portierbarkeit und Skalierbarkeit. Zum anderen kann im Rahmen eines MLOps-Verfahrens auch ein Model Serving Framework genutzt werden, in das Data Scientists ihre trainierten und validierten ML-Modelle einstellen. Applikationsentwicklerinnen und -entwickler können dann über Standard-APIs auf diese ML-Modelle zugreifen.

Es mag zwar keine einheitliche Methode zur Erstellung und Operationalisierung von ML-Modellen geben, aber die verbindenden Elemente sind die Erfassung und Aufbereitung von Daten, die Entwicklung von Modellen und die Umwandlung der Modelle in intelligente Anwendungen. Eine entscheidende Unterstützung können hier MLOps-Plattformen bieten, die die gesamte ML-Prozesskette effizient abdecken: vom Modelltraining über die Containerisierung und das Deployment bis hin zum Monitoring.