KI im IT Service Management
Künstliche Intelligenz im IT Service Management: Das Monitoring lernt selbst
Im Rahmen der digitalen Transformation werden IT-Systeme jeder Art für den Unternehmenserfolg noch kritischer, als sie es heute schon sind. Damit steigen die Ansprüche an die Zuverlässigkeit. Künstliche Intelligenz kann helfen, den Betrieb der IT bis in die letzten Winkel des Internet of Things sicherzustellen.
Im Rahmen der digitalen Transformation gewinnt die maschinelle, selbstständige Auswertung der allerorts erzeugten Datenmassen an Bedeutung. Das IT-System-Management bildet da keine Ausnahme. Denn nicht zuletzt mit dem Internet of Things (IoT) wächst das zu analysierende Datenvolumen auch im Monitoring massiv an.
Zudem steigt der Business-Impact der IT; digitale Geschäftsmodelle und Unternehmensabläufe erlauben keine ungeplanten Downtimes. Eine Störung in der IT darf heute nicht zum Problem auswachsen, sie muss bereits vorher erkannt und beseitigt werden – eine neue Herausforderung für die Basisdisziplin Monitoring.
Künstliche Intelligenz (KI) kann im Monitoring neue Einblicke und Möglichkeiten bieten, die analog zur Wartung industrieller Anlagen unter dem Begriff „Predictive Maintenance“ zusammengefasst werden können.
KI-Systeme sind „quasi-intelligent“ und nach einer Trainingsphase in der Lage, auf neue Situationen sinnvoll zu reagieren. Dazu erkennt das System Muster in den auszuwertenden Informationen. Wie gut eine KI bestimmte Muster innerhalb der im Monitoring erhobenen Daten erkennen kann, hängt zunächst einmal von der Qualität dieses Inputs ab.
Die mit den heute üblichen Mittelwertmessungen erhobene Datenqualität reicht für das KI-basierende IT-Management jedoch nicht, diese Sicht auf die IT ist nicht exakt genug: Geht man im Monitoring von einem Mittelwert aus, der als normal angenommen wird, kommt es durch die gesetzten Zeitintervalle bei der Messung zu Informationsverlusten. Man erhält eine eindimensionale Abbildung eines einzelnen Messwerts, der mit einem mehr oder minder willkürlichen Schwellwert verglichen wird.
Bessere Informationen
Es ist also eine andere, genauere Betrachtungsweise notwendig, um die KI optimal nutzen zu können. Ein in der Praxis bereits erfolgreich erprobter Ansatz ist die statistische Methode der Wahrscheinlichkeitsdichte, ein Verfahren zur Beschreibung einer Wahrscheinlichkeitsverteilung innerhalb eines gegebenen Intervalls.
Anstatt den Standard-Traffic als „Datenverkehr innerhalb eines bestimmten Durchschnittsbereichs“ zu definieren, wird versucht, die als normal anzusehende Datenverteilung durch eine Funktion der Wahrscheinlichkeitsdichte abzuschätzen. Die daraus resultierende Definition des Standard-Datenverkehrs ist damit „Datenverkehr innerhalb einer bestimmten Bandbreite eines der deutlichsten Maximalwerte der Wahrscheinlichskeitsdichtefunktion.“ Damit erhält man statt des Mittelwerts eine Dichte, die anzeigt, wie sich der Datenverkehr und die Datenmenge verteilen. Client-Latenz und Datendurchsatz können somit in einen Zusammenhang gebracht werden.
Man erhält eine informationsreichere Abbildung der Daten, die man zu Clustern zusammenfassen kann. Sinnvoll ist hier, die Cluster anhand der Dichte des Traffics im Netz zu bilden. Dabei geht man davon aus, dass dichter Traffic dem normalen Betrieb entspricht. Bereiche mit wenig Traffic – man spricht hier von Sparse Traffic – sind dagegen ein Hinweis auf Probleme.
Mit der Datenqualität, die sich durch komplexere statistische Ansätze wie Wahrscheinlichkeitsdichte erzielen lässt, verfügt man über eine gute Ausgangsbasis für den Einsatz von KI-Systemen. Denn beim maschinellen Lernen kommt es darauf an, ein mathematisches Modell mit Beispielen zu füttern, deren Output – auch Label genannt – bekannt ist.
Dabei stößt man unweigerlich auf ein sehr grundsätzliches Problem des maschinellen Lernens: Welches sind die relevanten Merkmale und wie können diese hinreichend exakt beschrieben werden? Die Herausforderung ist, dem Algorithmus die richtigen Features als Input bereitzustellen – nicht zuletzt, um auch nach der initialen Trainingsphase eine fortlaufende Optimierung des Systems zu ermöglichen.
Diese Optimierung ist besonders im IT-Monitoring extrem wichtig. Denn IT-Infrastrukturen sind sehr heterogen. Jede Geräteart, jedes Betriebssystem hat bestimmte Eigenarten, welche sich in den Monitoring-Daten widerspiegeln und die bei der Auswertung berücksichtigt werden müssen. Zudem ändern sich Infrastrukturen immer schneller, die KI muss adaptiv darauf reagieren können.
Unbeaufsichtigtes Lernen
Die Frage nach den relevanten Merkmalen einer „gesunden“ IT-Infrastruktur kann durch das so genannte Deep Learning entschärft werden. Dieser Ansatz basiert auf einer fortlaufenden Optimierung der KI, die die relevanten Merkmale selbst spezifiziert. Dabei werden neuronale Netze gebildet, die einen ähnlichen Aufbau haben wie das menschliche Gehirn und in mehreren Schichten angeordnet sind.
Ein anderer, in der Monitoring-Praxis bereits erprobter Ansatz, ist das unbeaufsichtigte Lernen. Dieses kommt bereits in einigen Produkten wie NetEye von Würth Phoenix zum Einsatz. Bei unbeaufsichtigtem Lernen versucht der Algorithmus, in dem ansonsten strukturlosen Datenrauschen des Monitorings Muster zu erkennen. Dazu müssen die Daten anhand ähnlicher Merkmale kategorisiert, also zu Clustern zusammengefasst werden.
Grundsätzlich sind selbstlernende Systeme sehr adaptiv und können schnell neue Situationen erfassen. Da der Ansatz der Wahrscheinlichkeitsdichte bereits Daten zu Clustern gruppiert, bietet sich das unbeaufsichtigte Lernen im Monitoring an. Der Datenverkehr wird vom Algorithmus in Sparse und Dense Traffic aufgeteilt.
Grundsätzlich gilt im Monitoring wie auch in allen anderen Einsatzbereichen von KI: Entscheidend für den Erfolg ist die Datenqualität. Neben den klassischen Performance-Daten wie CPU-Last, Netzwerklatenz oder I/O-Auslastung hat es sich in der Praxis gezeigt, dass auch die Sicht der Anwender einen wertvollen Beitrag leistet, um Unregelmäßigkeiten in der IT schnell zu erkennen.
Die User Experience weicht oft von den im Rechenzentrum erfassten Metriken ab. Um auch diesen Ausschnitt des großen Gesamtbilds in das IT-Service-Management einfließen zu lassen, gibt es heute einige Tools. Ein weiterer Vorteil der Anwendersicht ist, dass darüber auch die Performance von Diensten erfasst werden kann, die nicht on Premise erbracht werden.
Mit der zunehmenden Cloud-Nutzung auch in unternehmenskritischen Bereichen ist es unvermeidlich, im Monitoring auch diese Services zu überwachen und in die Gesamtbeurteilung aufzunehmen.
Rasche Fortschritte zu erwarten
Künstliche Intelligenz steckt im Monitoring noch in den Kinderschuhen. Die ersten Schritte sind gemacht, die ersten Systeme mit maschinellem Lernen und erweiterter Statistik sind bei innovationsfreudigen Kunden implementiert. Dabei zeigt sich, dass der Ansatz funktioniert und die gewünschten Ergebnisse liefert.
Aber bis zur vollautomatischen und selbstheilenden IT-System-Management-Lösung ist es noch ein weiter Weg. Wobei die Forschung im Bereich des maschinellen Lernens rasante Fortschritte macht. Zudem ist der Bedarf bei den Unternehmen da. Es steht also zu erwarten, dass in den kommenden Monaten und Jahren zahlreiche neue Lösungen und KI-Ansätze auf den Markt kommen werden.
Unsere Autorin:
Dr. Susanne Greiner, Data Scientist bei Würth Phoenix
Dr. Susanne Greiner studierte Experimentalphysik an der Universität Erlangen mit dem Schwerpunkt Medizintechnik. Parallel zum Studium arbeitete Greiner als Werkstudentin bei der Siemens AG in einer Entwicklungsabteilung für Software zu bildgebenden Verfahren. Um insbesondere die Aspekte des maschinellen Lernens zu vertiefen, promovierte Greiner nach dem Master-Abschluss an der Universität Trient im Bereich „Machine Learning for Neuroscience“. Sie arbeitet seit 2015 als Data Scientist beim Software-Dienstleister Würth Phoenix im Bereich Performance Monitoring und User Experience. Eines ihrer Ziele ist es, Verfahren des maschinellen Lernens gezielt einzusetzen, um Monitoring-Systeme wie die von Würth Phoenix entwickelte Lösung NetEye zu verbessern.
Über Würth Phoenix
Als IT- und Beratungsunternehmen der Würth-Gruppe bietet Würth Phoenix zukunftsweisende ERP- und CRM-Softwarelösungen auf Basis von Microsoft Dynamics. Das international präsente Unternehmen mit Hauptsitz in Bozen verfügt über weltweite Erfahrung im Bereich Unternehmenssoftware und eine langjährige Branchenkompetenz im Handel, der Distribution und der Logistik.
Im Bereich IT System Management setzt Würth Phoenix auf ausgereifte und lückenlos in die IT-Landschaft integrierbare Überwachungssysteme auf Open Source Basis. Mit WÜRTHPHOENIX NetEye und dem ITSM-Angebot von EriZone verfügen Kunden über eine Lösung, die aufbauend auf gängige ITIL-Standards Ihre IT als betriebswirtschaftlichen Produktionsfaktor begreift und abbildet.
Pressekontakt:
Würth Phoenix GmbH
Gerhard Schenk
Kravoglstraße 4
I-39100 Bozen
Tel: +39 0471 564 111
Fax: +39 0471 564 122
Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons