Der Mainframe – IT-Infrastruktur in Zeiten der Digitalen Transformation
Aus der Unternehmensgeschichte vieler Großkonzerne und technologienaher Betriebe ist eine Großrechneranlage, auch ‚mainframe‘ genannt, kaum wegzudenken. Mainframes waren vor Jahrzehnten die Keimzelle heutiger Rechenzentren und sind aktuell noch bei etwa 5.000 Unternehmen weltweit im Einsatz. Der Markt wird von IBM dominiert, die knapp 90 Prozent aller modernen Mainframe-Systeme stellen, daneben sind asiatische Firmen wie Hitachi oder Fujitsu mit Lösungen vertreten.
Noch heute laufen über 70 Prozent aller geschäftlichen Transaktionen über Großrechnersysteme, denn der Mainfram hat selbst gegenüber vielen serverbasierten Lösungen einige Vorteile. So bietet er hohe Zuverlässigkeit und Redundanz, wodurch die Daten rund um die Uhr verfügbar bleiben können, selbst wenn Komponenten getauscht werden – für Anwender wie etwa die New Yorker Börse NYSE von extremer Bedeutung. Ebenso bieten die spezialisierten Rechner eine hohe Speicherkapazität und breite Rechenleistung, was bei Millionen von Transaktionen etwa für Kreditkarten-Firmen oder Banken weitaus wichtiger ist als punktuelle Höchstleistung. Für alle Benutzer stellte auch der hohe Sicherheitsaspekt ein zentrales Kriterium dar, den Großrechner sowohl im Betriebssystem wie auch der Hardware gegenüber Angriffen durch Hacker bieten, den Regierungseinrichtungen, Forschungseinrichtungen oder Versicherungen schon lange zu schätzen wissen. Hier merkt man dem Mainframe seine Entstehungsgeschichte als Instrument für das Militär im Kalten Krieg an, wurden die ersten Großrechner doch mit Hinblick auf Verteidigungsmaßnahmen für den Ernstfall konzipiert.
Wachsende Probleme durch Digitale Transformation
Die IT-Industrie durchläuft gegenwärtig einen rasanten Wandel, bei dem die Digitale Transformation von Geschäftsprozessen sowie die Einführung neuer Technologieansätze wie Big Data, Cloud, Mobile- und Social Business-Applikationen eine zentrale Rolle spielen.
Auch wenn die Mainframe-Umgebung als operationskritische Plattform hierbei nach wie eine Rolle spielen kann, stellt die Einführung agiler Entwicklungsmodelle und steigende Anforderungen an die Flexibilität der Hardware bestehende Konzepte vor Probleme. Viele CIOs sehen als IT-Hauptverantwortliche daher eine herannahende Krise für die Zukunft ihrer Großrechneranlagen, da die IT-Infrastruktur ihrer Unternehmen älter als zehn Jahre ist und nicht mehr zeitgemäß agieren kann.
Diese alternde Hardware schafft zudem Potenzial für hohen Schaden, einer Umfrage zufolge würde ein einziger Ausfall des Mainframes über 60 Prozent der Unternehmen mehr als eine Million US-Dollar kosten. Ein Umstieg auf moderne Systeme wie die z13-Reihe von IBM kann allerdings ebenfalls eine immense Investition darstellen, die je nach Umfang der benötigten Rechenleistung schnell in den mehrstelligen Millionen-Bereich gehen kann. Diese Kosten sind für viele Firmen finanziell nicht tragbar, zumal steigende Unterhaltskosten und Lock-in-Effekte in Kombination mit den steigenden Anforderungen die Wirtschaftlichkeit zusätzlich beeinträchtigen.
Auch im Entwicklerbereich ist man überaus besorgt, laut Umfragen sehen knapp zwei Drittel aller CIOs Probleme darin, neue und vor allem junge Entwickler für den Mainframe-Bereich zu finden – auch, weil die sehr starre Umgebung der Großrechner-Architektur auf wenig Interesse beim innovationsorientierten Nachwuchs stößt. Die Kerngruppe der vorhandenen Mainframe-Experten steuert allerdings dem Rentenalter entgegen, wodurch viele Entwicklerteams Schwierigkeiten bekommen werden, neue Applikationen mit vorhandenen Systemen zusammenzuführen. Etwa die Hälfte der CIOs gab in einer 2012 veröffentlichten Studie offen zu, keinen Ausweg aus dieser Situation zu erkennen.
Aus diesem Grund suchen etwa zwei Drittel der aktuellen Mainframe-Anwender nach Optionen, wie sie sich in den nächsten zehn Jahren möglichst weit aus diesem Problem herauslösen können. Eine ‚Migration‘ auf neue Systeme ist aber von Seiten der Software nicht immer einfach. Ein Großteil der absolut essentiellen Programme, etwa Kundendatenbanken, Schlüsselinformationen oder die Transaktionssysteme, sind häufig ebenso alt wie die Hardware und durch jahrelange Bearbeitung durch verschiedene Mitarbeiter aus verschiedenen Codeschichten in mehreren Programmiersprachen zusammengeflochten.
„Vielen Mainframe-Anwendern ist das Risiko und die Komplexität zu hoch, die mit dem Neuschreiben oder Neukompilieren des Codes verbunden sind“, kommentiert Thilo Rockmann, Geschäftsführer des Schweizer Software-Unternehmens LzLabs, die gegenwärtige Situation. Aktuell sind noch immer 220 Milliarden Zeilen der frühen Programmiersprache COBOL im Einsatz, auf die gut 70 Prozent der Fortune 500-Unternehmen im täglichen Betrieb angewiesen sind. Beim Umzug auf neue Systeme müssten diese Programme neu kompiliert werden, was Schätzungen zufolge insgesamt Kosten von bis zu 4.000 Milliarden US-Dollar verursachen könnte.
Software Defined Mainframe als Alternative?
Virtualisierung wurde bisher als ein möglicher Weg aus diesem Dilemma gesehen, allerdings nicht ohne Schwierigkeiten. Wenn die alten Programme virtuell auf der zukunftssicheren Basis einer x86-Architektur in abgeschlossener Umgebung laufen, gingen dadurch teilweise unternehmenskritische Funktionen verloren, die auf die spezialisierte Großrechner-Hardware zugeschnitten waren. Um hier volle Kompatibilität zu gewährleisten, waren daher zum Teil trotzdem kostenintensive Neukompilierungen und langwierige Tests notwendig.
Das Unternehmen LzLabs will mit seiner als Software Defined Mainframe (SDM) bezeichneten Lösung eine einfache und wenn gewünscht schrittweise Migration der Geschäftsdaten ermöglichen. Ein hauseigenes Containerformat und spezielle Tools erlauben es laut Rockmann, den Anwendungscode alter Programme und die Daten der Kunden nahtlos zu übernehmen und unverändert in eine moderne Umgebung zu integrieren. Alle Schnittstellen zu anderen Anwendungen und zum Betriebssystem würden so bereitgestellt, somit sollen die Probleme der klassischen Virtualisierung weitestgehend überwunden werden. Die Investitionen der Kunden in ihre Geschäftsprozesse würden dadurch effektiv geschützt, da Programme und Daten nicht mehr konvertiert werden müssen. Künftig steht eine Erweiterung um aktuelle Standard-Containerformate wie Docker als Möglichkeit im Raum, was weitere Anwendungen ermöglichen könnte.
Derzeit befindet sich der sich der SDM noch in der Testphase und wird ausführlich bei Beta-Unternehmen getestet. Kunden sollen voraussichtlich Ende des Jahres das fertige Produkt von LzLabs im eigenen Betrieb einsetzen können. Die kürzlich bekanntgegebene Zusammenarbeit mit Red Hat und Microsoft Azure könnte hierbei ein wichtiges Kriterium werden, da hierdurch die Migration der Daten vom Mainframe auf kosteneffektive Enterprise Linux-Systeme ermöglicht werden und Unternehmen vor die Wahl stellt, ihre Daten künftig auch in eine Private- oder Hybrid-Cloud-Umgebung zu überführen.
Ob sich hinter diesem Lösungsansatz letztlich ein wirklich marktveränderndes Konzept verbirgt, wird sich in den kommenden Jahren zeigen. Auch darf man gespannt sein, wie Mainframe-Anbieter auf die Veränderungen in ihrem Markt auf Bedrohungen ihrer Vormachtstellung reagieren. Es bringt auf aber jeden Fall Bewegung in das eher statische Segment der Großrechner, die zumindest noch eine Weile Teil der sich sonst so schnell verändernden IT-Landschaft bleiben.
Für Unternehmen stellt dies auf jeden Fall einen Vorteil dar, da sie die mehr Möglichkeiten und Modelle erhalten, die Transformation ihrer Geschäftsprozesse im größeren Umfeld der digitalen Wandel von Wirtschaft und Gesellschaft nach eigenen Wünschen zu gestalten.
Autor: Manuel Kuck
Bildquelle / Lizenz: Pargon, Mainframe Computer; Veröffentlicht unter: https://creativecommons.org/licenses/by/2.0/