Panel: Zukunft der Arbeit

Die Debatte um die Zukunft der Arbeit wird kontrovers und öffentlich diskutiert. Im Kern geht es um den Einfluss neuer Technologien, die im Spannungsfeld zwischen Ängsten und Hoffnungen oszillieren. Raubt die Maschine als produktivere und günstigere Alternative den Menschen den Arbeitsplatz?

Arbeitswelt 4.0: KI wird zum selbstverständlichen Mitglied im Team

Ein Gastbeitrag von Doris Albiez

Die Arbeitswelt von morgen wird gerade neu definiert, und die Beziehung zwischen Arbeitgebern und ihren Mitarbeitern wird sich dabei fundamental verändern. Unternehmen müssen diesen Wandel aktiv mitgestalten und ihre Strukturen anpassen. Mitarbeiter wiederum sollten sich auf lebenslanges Lernen einstellen.

Die Arbeitswelt befindet sich in einem grundlegenden Umbruch: Digitalisierung, demografischer Wandel und zunehmende Globalisierung verändern die Art und Weise, wie, wo und wann wir arbeiten. Gerade Technologien wie Künstliche Intelligenz, Data Analytics und Robotics erlauben eine starke Automatisierung von Routinetätigkeiten, während sich die Berufsbilder hin zu einer höheren Spezialisierung wandeln oder völlig neue Berufe entstehen. Unternehmen müssen in der Konsequenz ihre Arbeitsprozesse und Organisationsstrukturen neu definieren. Gleichzeitig ändern sich die erforderlichen Schlüsselqualifikationen der Arbeitnehmer: In den Vordergrund rücken Digitalexpertise, Problemlösungskompetenz sowie die Offenheit für Neues. Lebenslanges Lernen wird künftig zum Standard, und Unternehmen müssen zum Coach ihrer Mitarbeiter werden und sie kontinuierlich weiterentwickeln.

Dell Technologies wirft einen Blick in die Zukunft

Welche Herausforderungen im Zuge der digitalen Transformation auf Unternehmen zukommen, wie diese bewältigt werden und wie die Workforce der Zukunft aussehen muss, hat Dell Technologies in Zusammenarbeit mit dem Institute for the Future (IFTF) im Report „Realizing 2030: Die Zukunft der Arbeit“ grundlegend erforscht. Für die Studie wurden 4.600 Führungskräfte in Unternehmen mit mehr als 250 Mitarbeitern in über 40 Ländern und aus zwölf Branchen befragt. Das zentrale Ergebnis: Die Ära der Partnerschaft zwischen Mensch und Maschine kommt, davon sind die befragten Führungskräfte überzeugt. Neben dem Argument der Zeitersparnis wird die zunehmende Automatisierung auch zu mehr Zufriedenheit am Arbeitsplatz führen: Während unbeliebte Aufgaben von Maschinen übernommen werden, können sich die Mitarbeiter auf die Bereiche Strategie, Kreativität und Weiterbildung konzentrieren.

Dabei ist es wichtig, nicht einfach bestehende Jobs durch Roboter zu ersetzen. Vielmehr geht es darum, Aufgaben und Abläufe so weiterzuentwickeln, dass sich Mensch und Maschine perfekt ergänzen. Stundenlang Excel-Dateien auswerten oder in großen Datenpools nach Zusammenhängen suchen können KI-Technologien definitiv schneller als wir. Kommt es allerdings auf logisches Denken, Kombinationsfähigkeit jenseits herkömmlicher Gedankenspiele und Einfühlungsvermögen an, ist der Mensch deutlich im Vorteil – und daran wird sich so schnell auch nichts ändern.

Teambildung und Chancengleichheit sind wesentliche Faktoren für erfolgreiche Arbeitsprozesse – auch hier kann KI unterstützen. Bildquelle: GettyImages

Technologie wird vielmehr zum nützlichen Begleiter. Augmented Reality beziehungsweise Mixed Reality ermöglichen schon heute völlig neue Arbeitsabläufe. Ein Beispiel ist der Einsatz von Mixed Reality in der Chirurgie: Ärzte können die entsprechenden Lösungen vor einer anstehenden Operation nutzen, um das Krankheitsbild der Patienten zu analysieren und den Verlauf der Operation im Vorfeld zu planen. Während der Operation können beispielsweise gesplitterte Knochen vom Unfallchirurgen einfacher in der richtigen Winkelposition zusammengesetzt werden, wenn er dabei mit holographischen Bildern unterstützt wird.

Ein anderes Beispiel ist die Wartung von Aufzügen. Während seiner Arbeit kann sich der Techniker ein Hologramm des Aufzugs anzeigen lassen, woraus sich dann unter anderem die Pläne einzelner Teile aufrufen und visualisieren lassen. Der Mitarbeiter kann zudem mittels Augmented Reality Anleitungen und Video-Tutorials aufrufen oder sich per Skype-Videoanruf jederzeit die Unterstützung eines Experten holen. Mit Hilfe neuer Technologien werden Menschen künftig auf eine ganz andere Art und Weise zusammenarbeiten: In der Studie „Realizing 2030“ gaben 86 Prozent der weltweit befragten Führungskräfte an, dass sie den Einsatz neuer Technologien zur Steigerung der Mitarbeiterproduktivität planen.

Der Arbeitsplatz der Zukunft beginnt im Jetzt

In der neuen Arbeitswelt wandelt sich auch der Anspruch an den Arbeitsplatz. Dieser ist nicht mehr an den Unternehmenssitz gebunden – Mitarbeiter haben vielmehr die Möglichkeit und auch die Anforderung, flexibel an jedem Ort zu arbeiten. Das erfordert die Ausstattung der Mitarbeiter mit modernsten mobilen Arbeitsgeräten, ihre umfassende Vernetzung sowie den Einsatz digitaler Kommunikationsmittel wie Messenger, Video-Chat-Systeme oder Conferencing-Tools. Ein One-size-fits-most-Ansatz reicht dabei jedoch bei weiten nicht aus – jeder Mitarbeiter hat individuelle Anforderungen und Bedürfnisse, die berücksichtigt werden müssen. Vergleichbar mit der Customer Journey sollten die CIOs also mit auf die „Employee Journey“ gehen. Damit können sie herausfinden, wie Mitarbeiter jeden Tag durch ihre Aufgaben und Entscheidungen navigieren, wann sie mit welchen Kollegen kommunizieren und wie sie Technologien nutzen. Ziel ist, die IT an jedem Arbeitsplatz innovativer, nutzerfreundlicher und individueller zu gestalten.

In der Arbeitswelt von Morgen werden sich Mensch und Maschine perfekt ergänzen. Bildquelle: GettyImages

Lebenslanges Lernen wird zur Selbstverständlichkeit

Ohne Weiterbildung werden sich die Menschen allerdings in der neuen Arbeitswelt nicht zurechtfinden. Die „Halbwertszeit“ von Wissen hat sich längst drastisch reduziert. In der Folge wird lebenslanges Lernen zur Grundvoraussetzung, wenn Menschen in der Arbeitswelt 4.0 bestehen wollen. Welche Skills und Kompetenzen in Zukunft besonders gesucht sind, kann man heute schon bei LinkedIn sehen: Gefragt sind bei den „harten“ Faktoren Erfahrungen in Cloud, Analytics, KI, aber auch People Management und User Experience (UX). Bei den Soft Skills sind wiederum Kreativität, Logik und emotionale Intelligenz erwünscht, Fähigkeiten also, die auch in der Studie „Realizing 2030“ als Voraussetzung für die Arbeitswelt von morgen genannt werden. Damit Maschinen die Menschen nicht von ihren Arbeitsplätzen verdrängen können, ist es besonders wichtig, dass diese jene Fähigkeiten erwerben, die Maschinen schlicht nicht erlernen können.

Der Einzelne muss dabei seine beruflichen Möglichkeiten im Blick behalten und sich die neu geforderten Fähigkeiten und Kenntnisse aneignen. Dem Arbeitgeber fällt die Aufgabe zu, die entsprechenden Lernmethoden bereitzustellen und die Aneignung neuer Qualifikationen zu vereinfachen. Eine Möglichkeit sind offene Online-Kurse (so genannte Massive Online Open Courses), das heißt Trainings ohne Zugangsbeschränkungen, die helfen, Kompetenzlücken zu schließen.

Mehr Chancengleichheit dank KI

Die Partnerschaft zwischen Mensch und Maschine wird es auch ermöglichen, die einzigartigen Fähigkeiten der Menschen zu erkennen und für mehr Chancengleichheit zu sorgen. Vorurteile trägt jeder in sich – sie verleiten dazu, Menschen aufgrund von Erfahrungen oder tiefsitzenden vorgefertigten Meinungen, derer man sich oft gar nicht bewusst ist, in Schubladen zu stecken. Wenn man es schafft, diese unterbewussten Vorurteile zu durchschauen und ihnen keinen Raum mehr zu geben, ist das der erste Schritt auf dem Weg zu einer toleranteren und damit besseren Arbeitsumgebung. Unternehmen werden sich künftig beispielsweise auf KI verlassen, um menschliche Vorurteile im Einstellungsprozess zu reduzieren, die Bildung optimaler Teams am Arbeitsplatz zu steuern und Anreize zur Steigerung von Produktivität, Arbeitsmoral und Mitarbeiterbindung zu schaffen. 67 Prozent der für die Studie „Realizing 2030“ befragten Führungskräfte gehen davon aus, dass sie neue Technologien einsetzen werden, um mehr Chancengleichheit zu schaffen.

Unternehmen müssen den Wandel aktiv angehen

Fakt ist, Unternehmen müssen sich in den nächsten Jahren ein paar entscheidende Fragen stellen: Welche Arbeit kann zukünftig durch Nutzung entsprechender Technologien effizienter und effektiver erledigt werden? Welche Fähigkeiten brauche ich in Zukunft und wie kann ich diese frühzeitig und dauerhaft entwickeln? Aus operativer Sicht gilt es, firmeninterne Prozesse auf die Mensch-Maschine-Interaktion anzupassen. Dabei sollten vor allem die Arbeitsabläufe zwischen Mitarbeitern und digitalen Technologien abgestimmt und optimiert werden. Genauso wichtig sind Fortbildungsmöglichkeiten und eine offene Kommunikation: Ein Mitarbeiter, der ständig Angst hat, durch einen Roboter ersetzt zu werden, wird keinen Beitrag zum Unternehmenserfolg leisten. Kreativität, Inspiration, Intelligenz und Neugier sind allerdings Voraussetzung, um die nächste Ära der Mensch-Maschine-Partnerschaft zu erreichen.

Bildquelle / Lizenz Portrait Doris Albiez: Dell Deutschland

CC-BY-ND

This content is licensed under a Creative Commons Attribution-NoDerivatives 4.0 International license. Autorin ist Doris Albiez, Senior Vice President und General Manager von Dell Technologies Deutschland.

„Lesen, zuhören und im Netzwerk austauschen“

Timo von Focht: „Lesen, zuhören und im Netzwerk austauschen, sind meine drei Tipps, um Trends aufzuspüren.“

Die TREND-REPORT-Redaktion sprach mit Timo von Focht, Country Manager DACH von Commanders Act, über Technologien und Bildung im Kontext der Digitalisierung. Das Interview führten wir im Rahmen unserer aktuellen Berichterstattung zur TREND REPORT November 2019.

Welche Technologien im Kontext der digitalen Transformation sollten Entscheider Ihrer Meinung nach besonders stark beobachten bzw. auf der Agenda haben und warum?
Wer den Gartner Hype Cycle 2019 im Bereich Digitales Marketing angesehen hat sieht schnell, dass es zwei große Trends im Bereich der Lösungen gibt, die man im Blick haben sollte. Im obersten Teil der Kurve geht es um das Erfassen, Verstehen und Optimieren der gesamten Customer Journey. (Stichwörter bei Gartner dazu sind: Customer Journey Analyse, Multitouch Attribution, Multichannel Marketing Hubs, Multidimensional Campaign Segmentation, Conversational und Data Driven Marketing. Weitere damit verbundene Themen sind Echtzeit Marketing, Künstliche Intelligenz im Marketing, Prädiktive Analyse sowie Identity Resolution). Zusammengefasst werden alle diese Aspekte für Marketingverantwortliche in einer einzigen Lösung, der Customer-Data-Plattform (CDP). Diese dient dazu, Datenquellen aus allen Bereichen entlang der Customer Journey zusammenzuführen, aufzubereiten und für eine optimierte Kampagnen-Aussteuerung und Echtzeit-Ansprache der Kunden und Interessenten sowohl online als auch offline zu nutzen. Kein Wunder, dass die CDP damit auch auf der Spitze des Gartner HypeCycles angekommen ist.
Im Anfangsbereich der Hype-Parabel, dem Bereich, der in Zukunft am meisten wachsen wird, findet sich – wenig überraschend – ein weiterer wichtiger Aspekt: Datenschutz. Sogenannte Consent-Management-Plattformen (CMP) helfen Website- und App-Betreibern dabei, Nutzereinwilligungen datenschutzkonform zu erfassen, zu speichern und zu dokumentieren. Eine unabdingbare Voraussetzung, um mit den Nutzerdaten in anderen Systemen, wie beispielsweise einer CDP, gesetzeskonform arbeiten zu dürfen.

Wie bewerten Sie diese Technologien für Ihr Unternehmen und integrieren Sie diese in Ihre eigenen Prozesse/Produkte?
Commanders Act hat schon vor Jahren die erste umfassende Marketing-Technologie-Plattform geschaffen, die sowohl alle CDP-Inhalte umfasst als auch mit einer vollumfänglichen CMP ausgestattet ist. Wer es unterlässt, beide Lösungen zu integrieren, kann schon in Kürze ein böses Erwachen erfahren. Dann nämlich, wenn demnächst höchstrichterlich über noch strittige Punkte der DSGVO entschieden wird, was die Pflichten bei der Erfassung von Nutzer-Einwilligungen angeht. Möglicherweise sind dann viele der bislang erhobenen User-Daten nicht mehr legal nutzbar. Auch unser eigenes Unternehmen muss diese Produkte einsetzen und entsprechend zertifizieren lassen, um sich für unsere Kunden aus Bereichen wie Finanzdienstleistungen, Einzelhandel, FMCG oder Reisen als möglicher Dienstleister zu qualifizieren. Außerdem müssen wir bei den regelmäßigen Kontrollen der Aufsichtsbehörden die Bestätigung bekommen, dass DSGVO-konform gearbeitet wird.

Welche Rolle spielt dabei Bildung bzw. Schulung und Weiterbildung für Ihr Haus?
Die DSGVO erfordert strenge Sicherheitsvorkehrungen und Schulungen schon per Gesetz. Für unser Unternehmen heißt das: Mitarbeiter werden regelmäßig über die neuesten Gegebenheiten zu den Themen Datenschutz und Sicherheit informiert und geschult. Gleichzeitig achten wir darauf, dass unsere Mitarbeiter sich über externe Events weiterbilden. Inzwischen bieten wir regelmäßig Webinare mit führenden Experten aus dem Bereich DSGVO und ePrivacy. Zudem entwickeln wir auch Schulungen für unsere Kunden zum korrekten Einsatz von Marketing-Technologien aus Datenschutzsicht. Hier stehen die meisten Unternehmen noch ganz am Anfang. Den meisten ist wohl nicht bewusst, welches Damoklesschwert über ihren Köpfen hängt, wenn sie es vernachlässigen, den Datenschutz in ihre (meist auch noch nicht voll ausgearbeitete) Datenstrategie zu integrieren sowie alle mit Daten betrauten Mitarbeiter in diesen Themen zu schulen.

Wie entdecken Sie Trends und Entwicklungen, um frühzeitig reagieren zu können?
Meine drei Tipps: Lesen, zuhören und im Netzwerk austauschen. In meinen Tagesablauf ist sowohl die Lektüre von Tageszeitungen, Blogs und Fachzeitschriften eingebettet, als auch die von Studienergebnissen großer Markt- und Trendforschungsunternehmen. Zudem stehe ich über mein persönliches Kontakt-, Partner- und Kundennetzwerk immer in Verbindung zu Praktikern aus unterschiedlichen Disziplinen und nehme hier auf, welche Herausforderungen aus Kundensicht in den kommenden Jahren oder Monaten priorisiert werden müssen. Auch wenn augenscheinlich immer weniger Fachleute auf Konferenzen und Workshops gehen, halte ich diese dennoch für das beste Mittel, um komprimiert über die neuesten Trends informiert zu sein und das berufliche Netzwerk zu erweitern. Wichtig sind dann insbesondere der Austausch und die Vermittlung der gewonnenen Erkenntnisse innerhalb des eigenen Unternehmens. Hier sehe ich bei vielen Firmen noch Handlungsbedarf, um Plattformen für den internen Wissensaustausch zu schaffen, zu pflegen und effizient zu nutzen.

Weitere Informationen unter:
https://www.commandersact.com/de/unternehmen/ueber-uns/

Wie die Digitalisierung Arbeit verändert

von Peter Lasinger, Co-Founder und Partner von capital300

Das aktuelle Jahrhundert ist von maßgeblichen Umwälzung auf wirtschaftlicher und gesellschaftlicher Ebene geprägt. Anders ausgedrückt: Wir befinden uns mitten in einer Informations- und Dienstleistungs-Revolution. Sie ist die Konsequenz von immensen Fortschritten bei Soft- und Hardware. Dank ihnen können viele Tätigkeiten besser, schneller und günstiger ausgeführt werden – und das beeinflusst so gut wie jeden Lebensbereich.

So ist gerade die Arbeitswelt von der Digitalisierung von Daten und Prozessen und damit einhergehenden Automatisierung betroffen. Angetrieben wird diese insbesondere durch Fortschritte bei Algorithmen, im Bereich Machine Learning (ML) oder Artificial Intelligence (AI) und in der Hardware durch AI Chips, Neuromorphic Chips und Quantum Computing. Aus dieser Entwicklung und der daraus resultierenden Wertschöpfung ergeben sich große Chancen für Unternehmen und Investoren.

Hier jedoch nur den Status Quo zu betrachten wäre zu kurz gegriffen, denn die Digitalisierung beschleunigt auch Veränderungsprozesse. Agilität und Flexibilität sind aus ökonomischer Sicht eine Grundvoraussetzung. Als Investor in disruptive Technologieunternehmen stelle ich mir daher die folgende Frage: Welche Konsequenzen werden diese Entwicklung mittel- und langfristig haben?

Mehr Effizienz durch Robotic Process Automation

Um beim Thema Arbeit zu bleiben: Was im 19. Jahrhundert die Dampfmaschine für Arbeiter in Fabriken war, sind Algorithmen und Robotik für viele Bereiche der Büro- und Dienstleistungsarbeit. Bereits heute können viele manuelle Schritte, etwa in der Buchhaltung bei der Erfassung von Belegen vollständig automatisiert werden – Stichwort ist die Robotic Process Automation (RPA), also robotergesteuerte Prozessautomatisierung. Aber auch Fahrer von Gabelstaplern, LKWs und Taxis werden mittel- und langfristig durch Maschinen ersetzt. Auch in speziellen Bereichen der Diagnostik, wie etwa im Labor oder der Radiologie sind Algorithmen bereits heute besser als die meisten Mediziner. Doch selbst die Softwareentwicklung ist vor Veränderungen nicht gefeit: Unternehmen wie DeepCode arbeiten an der automatischen Prüfung und zukünftig auch Verbesserung bzw. dem automatisierten Schreiben von Programmiercode.

Neue Arbeitswelt erfordert Umdenken

Bereits heute zeichnet sich damit ab, dass wir künftig anders und vielleicht auch weniger arbeiten werden. Basierend natürlich auf dem Verständnis, dass die Arbeitswelt mit den neuen Technologien sinnvoll organisiert wird, und nicht etwa die Technologie unsere Arbeitswelt bestimmt. Diese Veränderung macht auch ein Umdenken in politischen und sozialen Systemen notwendig und wir müssen Antworten darauf finden, womit wir uns in Zukunft beschäftigen und wie wir die Früchte der Automatisierung verteilen wollen.

Wenn es künftig weniger bzw. andere Arbeit gibt, werden sich die Prioritäten und Präferenzen der Menschen verändern. Nicht nur wird die Freizeitgestaltung wichtiger, sondern das Selbstwertgefühl und der soziale Status wird weniger stark über Arbeit definiert. Stattdessen werden kreative und soziale Aufgaben wie etwa in Vereinen und politische Betätigungen an Bedeutung gewinnen. Auch das “nicht automatisierte” oder maschinell gefertigte, also Wirtschaftsbereiche wie Handwerk und Kunst, werden an Qualität und Wert gewinnen.

Technologie steigert Wirkungsgrad des Einzelnen

Mit all den Werkzeugen und Technologien – vorausgesetzt natürlich, dass der Zugang zu Know-how und Ressourcen gewährleistet ist – steigt auch der Wirkungsgrad, sprich die Reichweite, Fähigkeiten und der Einfluss jedes Einzelnen. So wie man mit einem Bagger tausendmal mehr Erdreich bewegen kann als mit einer Schaufel, kann der einzelne Werke und Produkte schaffen, die früher viele Jahre und die Zusammenarbeit vieler Personen benötigt haben. Ein gutes Beispiel sind (Software-)Firmen, die von zwei oder drei Entwicklern aufgebaut und betrieben werden und globale Services bereitstellen, die noch vor wenigen Jahren die Einbindung und das Mitwirken von hunderten Personen erfordert hätten. Mittels moderner Kommunikationsmittel können viele Arbeiten von jedem Ort der Welt bei flexibler Zeiteinteilung erbracht werden. Wir sehen zunehmend verteilte und virtuelle Teams, die Service-Levels erreichen, die früher nur globalen Konzernen vorbehalten waren.

Boom bei Unterhaltung und Gesundheit

Mit Blick auf die Wirtschaft werden die Bereiche Gesundheit und Unterhaltung immer bedeutendere Wirtschaftszweige. Schon heute verzeichnet der Gaming-Markt einen anhaltenden Boom. So prognostiziert das Statista Research Department, dass sich der Umsatz mit Videospielen (Spieleverkäufe, Gaming-Apps, Abos, Mikrotransaktionen) im Jahr 2020 weltweit auf insgesamt rund 85,4 Milliarden US-Dollar belaufen wird. Schon heute macht der Gaming-Markt mehr Umsatz als der gesamte restliche Entertainment Markt (inkl. Film und Musik) zusammen. Meine Erwartung ist, dass ähnliches im Bereich der Gesundheit passieren wird, wo neuartige Konzepte wie Telemedizin und “Software Therapeutics” völlig neue Diagnose- und Behandlungsformen erlauben.

Mehr Zeit für Innovation und Unternehmertum

Was werden wir mit den gewonnenen Freiheiten und Qualitäten anfangen? Wir werden unser Verständnis von Leistung und Arbeit überdenken müssen. In Zeiten von Automatisierung ist das Denken in 40-Stunden-Wochen einschränkend. Denn manche Tätigkeiten werden überhaupt keine Zeit mehr benötigen, andere – wie die Pflege, Bildung, Gesundheit – werden wichtiger und wertvoller werden. In einer Utopie gedacht können wir die Freiheiten für Innovation und Unternehmertum nützen, die es brauchen wird um den wachsenden Herausforderungen unserer Umwelt und Gesellschaft zu begegnen.

Autoreninfo

Peter Lasinger ist Co-Founder und Partner von capital300, einem europäischen Venture Capital Fonds (Series A), der neben Kapital insbesondere mit Know-how und Netzwerk ambitionierte Gründer von disruptiven Technologieunternehmen und unterstützt. (Bildquelle / Lizenz: capital300; Patrick Münnich | www.patrickmuennich.com)

Bildquelle / Lizenz Aufmacher: Photo by Visual Tag Mx from Pexels

CC-BY-ND

This content is licensed under a Creative Commons Attribution-NoDerivatives 4.0 International license. Autor Peter Lasinger

Die Zukunft der Mobilität

Ein Gastbeitrag von Martin Gruber, Managing Director – Central Europe, Avis Budget Group

Das Thema Mobilität ändert sich in Deutschland momentan grundlegend und sicher geglaubte Einstellungen und Gewohnheiten geraten ins Wanken: Bis vor noch nicht allzu langer Zeit war der Besitz eines eigenen Autos so gut wie selbstverständlich und der Gedanke, ein Auto mit anderen zu teilen, kam kaum jemanden in den Sinn.

Heute dagegen ist gerade in urbanen Regionen ein eigenes Auto oft nicht mehr die Regel: Car Sharing und Mietwagen werden immer beliebter und Fahrrad und E-Roller sind zu echten Alternativen im Mobilitätsmix geworden, insbesondere für die «letzte Meile» der Reise. Kurz gesagt, die Reisenden haben eine veränderte und differenzierte Sichtweise zu Fragen rund um Mobilität und suchen nach alternativen Lösungen für ein effizienteres und stressfreies Verkehrserlebnis.

Dies merken wir als Autovermietung seit einiger Zeit ganz konkret am Buchungsverhalten unserer Kunden: Wir verzeichnen vor allem in Großstädten* einen deutlichen Anstieg der Autovermietungen von Privatleuten an Wochenenden und Feiertagen. Unsere Daten zeigen, dass sich die Stadtbewohner zunehmend für Mietwagen entscheiden, wenn sie Ziele erkunden und dabei gleichzeitig von der größeren Freiheit profitieren möchten, die ihnen ein Mietwagen bietet. Zum Beispiel Ziele, die sie mit öffentlichen Verkehrsmitteln nicht erreichen können oder die Möglichkeit zu haben, egal wann dorthin zu fahren, wohin sie möchten.

Martin Gruber, Managing Director – Central Europe, Avis Budget Group (Bildquelle / Lizenz: Avis Budget Group)

Die Vermietungsbranche ist die treibende Kraft für die Zukunft der Mobilität, und was wir heute sehen, ist erst der Anfang. In Zukunft wird es viel mehr vernetzte Autos und Smart Cities geben. Außerdem sehen die Menschen Mobilität zusehends als Dienstleistung, um sie auf die bequemste, stressfreieste und effizienteste Weise von A nach B zu bringen. Die Autovermietung spielt in dieser Zukunft eine wichtige Rolle und wir arbeiten kontinuierlich an der Weiterentwicklung von Avis Deutschland von einem klassischen Autovermieter hin zu einem führenden Mobilitätsdienstleister.

Avis Deutschland steht bei dieser Veränderung in vorderster Reihe. Dies ist bereits heute zu sehen: von der kürzlich verbesserten Avis App mit neuen Funktionalitäten über Mobilitätskooperationen wie die unlängst geschlossene Partnerschaft mit Ford bis hin zu einer umfassenden Digitalisierung, die wir dank spezialisierter Partnerschaften und vernetzter Fahrzeuge verwirklichen können. Wir bei Avis Deutschland gehen davon aus, dass die Mobilität zukünftig vollständig vernetzt, integriert und auf Abruf als Service verfügbar sein wird.

Dazu ergreift Avis Deutschland eine Reihe von Maßnahmen, um sicherzustellen, dass wir die gegenwärtigen und zukünftigen Bedürfnisse unserer Kunden erfüllen:

Besonders im Hinblick auf die wachsende Popularität der so genannten «Mikromobilität» und insbesondere für diejenigen, die ein Transportmittel für die «letzte Meile» ihrer Reise suchen, hat Avis Deutschland eine Partnerschaft mit dem führenden Bike-Sharing-Anbieter nextbike geschlossen: Kunden können ihr Fahrzeug zum Beispiel an ausgewählten Avis Mietstationen abgeben und haben die Möglichkeit, bei Bedarf direkt an der Station ein nextbike-Fahrrad für ihre Weiterreise zu nutzen. Das heißt, ein optimierter und vernetzter Mobilitätsservice, um von A nach B zu gelangen.

Avis Deutschland arbeitet auch daran, seine Flotte zu vernetzen und innovative technologische Lösungen anzubieten, die den sich ändernden Mobilitätsbedürfnissen gerecht werden. Mit der Avis App können Kunden beispielsweise jeden Aspekt der Anmietung über ihr Smartphone steuern: zum Beispiel Änderung oder Upgrade des gewünschten Mietwagens, Verlängerung der Buchung oder Informationen zur nächstgelegenen Tankstelle oder Parkmöglichkeit. Avis Preferred, das kostenfreie Treueprogramm, bietet seinen Mitgliedern eine noch größere Auswahl an Funktionen in der App, wie die Auswahl des gewünschten Mietwagens nach Marke und Modell sowie die Auswahl aller Add-ons. An ausgewählten Mietstationen können die Mitglieder die Mietstation sogar komplett umgehen und direkt zum Fahrzeug gelangen.
Dank der zunehmenden Vernetzung der globalen Flotte kann Avis Deutschland seinen Kunden einfacheren und schnelleren Zugang zu den Fahrzeugen ermöglichen. Nicht zuletzt liefert eine vernetzte Flotte Echtzeitinformationen, die dazu beitragen, Prozesse zu optimieren, individuelle Kundenbedürfnisse umzusetzen und sogar Daten wie Parksituation oder Straßenverhältnisse zu generieren und so zur Entwicklung von Smart Cities beizutragen.

Avis Deutschland ist auf dem besten Weg, ein umfassender Mobilitätsdienstleister zu werden und konzentriert sich dabei darauf, Mobilität dort anzubieten, wo und wann sie gebraucht wird.

* gemäß der internen Buchungszahlen von Avis Deutschland

Weitere Informationen unter:
http://www.avis.de/

Bildquelle / Lizenz Aufmacher: Photo by Aleksejs Bergmanis from Pexels

BaFin & Cloud: So geht das Zusammenspiel

Ein Gastbeitrag von Andreas Bachmann, Adacor

Der Schritt in die Cloud ist für Banken aufgrund regulatorischer Anforderungen komplexer als für FinTechs oder Unternehmen anderer Branchen. Bei der Frage, welche Prozesse man als Bank in die Cloud auslagern kann, müssen diverse Compliance-Richtlinien der BaFin erfüllt werden. Wenn IT-Manager von Finanzinstituten Ressourcen in die Cloud zu externen Hosting-Dienstleistern auslagern wollen, dann kommt mit BAIT, MaRisk, MaComp oder C5 ein ganzer Schwung an relativ neuen Compliance-Richtlinien auf sie zu.
In vielen Artikeln kann man daher lesen: Die Cloud ist für Banken ein schwieriges Thema. Zugegeben, einfach ist es nicht. Welche Hürden zu nehmen sind, wie man das Thema Managed Cloud Hosting mit einem externen Partner erfolgreich umsetzen kann und ob sich das Ganze lohnt, zeigt der folgende Beitrag.

Ohne Compliance geht nichts

Andreas Bachmann ist CIO und Mitgründer der Adacor Hosting GmbH

Natürlich würden die Banken am liebsten frei entscheiden, welche Services sie in die Cloud auslagern. Im Gegensatz zu unregulierten Branchen ist das Banken nicht erlaubt, denn das Auslagern an einen Cloud-Provider fällt immer zwingend unter die BAIT (Bankaufsichtlichen Anforderungen an die IT) der BaFin. Die Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) beaufsichtigt und kontrolliert im Rahmen der Finanzaufsicht alle Bereiche des Finanzwesens in Deutschland. Und dazu gehört auch das Auslagern von Daten und vor allem Anwendungen in die Cloud.

Der BaFin und ihren Compliance-Vorgaben geht es darum, einen Rahmen zu schaffen, der sicherstellt, dass die IT sich in einem sicheren Umfeld bewegt und Banken nicht kollabieren. Am Ende ist das alles unter der Brille des Risikomanagements zu betrachten und die BaFin garantiert dieses Risikomanagement. Man kann die BaFin und ihre Vorgaben eigentlich nur begrüßen, denn sie sichert die Banken, die Endkunden und damit auch die Gesellschaft ab.

Diese 3 Regeln gelten

Im Wesentlichen sind es drei BaFin-Richtlinien, die Compliance sicherstellen: BAIT, MaRISK und MaComp.

  • BAIT: Die „Bankaufsichtliche Anforderungen an die IT“ (BAIT) regeln unter anderem Themen wie IT-Sicherheit, Datensicherung und Anwendungsentwicklung. BAIT formuliert einen Rahmen für die technisch-organisatorische Ausstattung der Institute – insbesondere für das Management der IT-Ressourcen und für das IT-Risikomanagement.
  • MaRisk: Mit den Mindestanforderungen an das Risikomanagement (MaRisk) werden Anforderungen an die Umsetzung von IT-Sicherheit definiert. Vor allem in Bezug auf das Risikomanagement bei Banken. Sie konkretisieren den § 25a KWG und sind die Umsetzung der qualitativen Anforderungen aus Basel II bzw. Basel III an das Risikocontrolling von Banken.
  • MaComp: Durch die Mindestanforderungen an die Compliance-Funktion (MaComp) erhalten Finanzinstitute Orientierung bei der praktischen Umsetzung der Verhaltens-, Organisations- und Transparenzpflichten.

Ergänzt werden diese Vorgaben durch den Anforderungskatalog Cloud Computing (C5) des BSI in dem festgelegt wird, welche Anforderungen Cloud-Anbieter erfüllen müssen. Der Katalog ist in 17 thematische Bereiche unterteilt und basiert auf anerkannten Sicherheitsstandards wie z.B. ISO/IEC27001. Neben C5 sind seit kurzem auch die Empfehlungen der EBA bei der Nutzung von Cloud-Diensten zu beachten.

Welche Cloud und welcher Provider?

Will eine Bank nun Services in die Cloud auslagern, dann muss geklärt werden, welche Art der Cloud man wählt und mit wem man das Ganze realisiert.
Bei der Art der Cloud ist es zu 90% immer eine Private Cloud. In einer solchen lassen sich die BaFin-Vorgaben am besten abbilden, weil man die Kontrolle hat. Natürlich kann bestimmte Services auch innerhalb einer Shared-Plattform (Hybrid Cloud) umsetzen, jedoch wird das Ganze mit Sicht auf Abstimmungen wesentlich aufwändiger. Allerdings muss man da etwas relativieren, denn es gibt ja nicht DIE Hybrid Cloud. Hybrid heißt ja “nur”: Ich benutze verschiedene Cloud-Modelle für verschiedene Workloads.

Bei der Suche nach einem Dienstleister für Managed Cloud Hosting sollten Banken neben Kosten vor allem diese drei Aspekte achten: SLA, fachliche Kompetenz und natürlich Einhaltung der Compliance-Richtlinien.

  • SLA: Managed Cloud Hosting ist in erster Linie eine Vertrauenssache. Denn wer seine IT-Infastruktur von einem Dienstleister betreiben lässt, will umfangreiche Garantien. Kundenansprüche werden daher in Service Level Agreements (SLA) geregelt.
  • Kompetenz: Jeder Hosting-Anbieter wird heute über gutes Know-how verfügen, sonst könnte er nicht existieren. Beim Thema Banking in der Cloud muss man etwas hinter die Kulissen schauen. Ein Beispiel zeigt warum: Viele moderne Bestandsführungssysteme setzen z.B. auf Oracle als Datenbank. Ich brauche also einen Provider mit Mitarbeitern, die Know-how mit Enterprise-Technologie und dem Oracle-Umfeld haben, dies ist etwas ganz anderes als das “alltägliche” MySQL und PHP.
  • Compliance: Da die Cloud extern gehostet wird, obliegt dem Hosting-Partner ein großer Teil der Verantwortung für die Einhaltung und Umsetzung der BaFin-Richtlinien. Es sollte sich daher um einen Partner handeln, der nachgewiesene Erfahrung in diesem Umfeld hat und bereits Bank-Projekte in der Cloud realisiert hat. Vor allem sollte er über ein eigenes Compliance-Team verfügen, dass sich dediziert um die Themen BAIT, MaRisk, MaComp & Co. kümmert. Nicht jeder Anbieter hat dies, denn es ist personalintensiv und teuer. Bei Adacor befassen sich z.B. mittlerweile 5 von 75 Mitarbeiter/innen ausschließlich mit dem Thema Compliance.

BaFin-konformes Cloud Hosting lohnt sich

Cloud- und Serverinfrastrukturen für Banken, Fintechs und Versicherungen bergen besondere Herausforderungen. Wenn man als Bank einen externen Cloud-Partner wählt, dessen Managed Cloud und Hosting Services neben den hohen Anforderungen an Sicherheit, Performance und Verfügbarkeit auch die aufsichtsrechtlichen Anforderungen von Bafin und EBA erfüllt, dann steht einer erfolgreichen Cloud-Nutzung nicht viel im Weg.

Andreas Bachmann erläutert, wie Banken rechtssicher in die Cloud auslagern können.

Adacor hat sich frühzeitig auf Compliance-lastige Services spezialisiert und wir meinen aufgrund unserer Erfahrungen: Managed Cloud Hosting ist für Banken auch und gerade unter Einhaltung der bestehenden Compliance-Vorgaben machbar. Das dies in der Praxis funktioniert zeigen unsere Digitalisierungsprojekte bei Banken und Finanzdienstleistern wie GLS Bank, TEBA Bank oder der Ergo Versicherung. Zusammengefasst lässt sich sagen: BaFin-konformes Managed Cloud Hosting ist keine unüberwindbare Hürde, vor der sich Banken fürchten müssten.

Praxisbeispiel Umsetzung Compliance Vorgabe

Wie die Umsetzung einer Compliance-Vorgabe aussieht, kann man gut am Beispiel Backup verdeutlichen. Die BaFin gibt beispielsweise vor, dass Banken ein angemessenes Datensicherungskonzept für Backups haben müssen und dieses Backup-Konzept gewisse Risiko-Betrachtungsweisen berücksichtigt. Allerdings definiert die BaFin keine technischen Aspekte dafür. Sie definiert keine Data Retention Policies, sagt also nicht, wie und wie lange Daten für die betrieblichen Prozesse und für gesetzliche und sonstige Vorschriften gespeichert werden sollen. Sie gibt auch nicht vor, wie schnell der Wiederherstellungszeitraum sein muss.

All dies müssen Bank und Hosting-Partner als Konzept selber verfassen und dieses mit anderen Unterlagen wie dem BAIT-Konzept bei der BaFin zur Prüfung einreichen. Bei der Erstellung dieser Konzepte arbeiten Bank und Hosting-Anbieter also eng zusammen. In so einem Konzept kann z.B. stehen, dass Backups täglich gemacht und die gesicherten Daten auf bestimmten Backup-Medien in gesicherten Räumen gelagert werden und nur ausgewählte Personen mit entsprechender Schulung und Sicherheitsstatus darauf Zugriff haben. Der Soll-Ist-Vergleich wird regelmäßig von drei Stellen durchgeführt: der internen Revision des Hosting-Partners, der internen Revision der Bank und von den externen Wirtschaftsprüfern.

Auslagern geht nur mit Vertrag

Geht ein Automobilhersteller in die Cloud, so kann er autark entscheiden, mit wem er zusammenarbeitet. Im Bankenumfeld sieht die Sachlage etwas anders aus und typische Standardverträge sind nicht ausreichend. Wenn Banken die Auslagerung von wesentlichen Diensten an einen Cloud-Anbieter planen, so müssen sie dies gemäß Zahlungsdiensteaufsichtsgesetzes (ZAG) den zuständigen Aufsichtsbehörden anzeigen.
Denn einerseits werden betriebliche, personen- beziehungsweise kundenbezogene Daten vom geschützten Unternehmensraum (dem Rechenzentrum der Bank) in öffentlich zugängliche Netze und Systeme ausgelagert. Wie diese Daten genau zu handhaben sind, regelt eine Vereinbarung zur Auftragsdatenverarbeitung (ADV), deren genauen Inhalte im Bundesdatenschutzgesetz (BDSG) verankert sind.
Andererseits muss der Hosting-Partner sicherstellen, dass alle wesentlichen Compliance-Richtlinien eingehalten werden. Die BaFin muss wissen, ob und wie BAIT, MaRsik und MaComp in der Cloud eingehalten werden sollen. All dies muss daher in einem umfassenden Vertrag stehen, der bei der BaFin einzureichen ist. Viele Banken lassen sich unserer Erfahrung nach diesen Vertrag sogar von der BaFin abzeichnen, um auf der sicheren Seite zu stehen.

Was Banken alles auslagern dürfen

Kann eine Bank alles auslagern oder müssen bestimmte Dinge im Rechenzentrum der Bank verbleiben? Das Interessante ist, dass trotz aller Compliance-Vorgaben vieles erlaubt ist. IT-seitig darf ich als Bank wirklich ALLES auslagern, da gibt es keine Beschränkungen. Man kann als Bank sogar eine Komplett-Auslagerung durchführen, so dass ich gar keine eigenen IT-Systeme mehr habe. Das ist genau das, was StartUps wie N26 machen, die vom Reißbrett aus mit Null Altlasten starten und sich dann sekundengenau in der externen Cloud das zurechtschneidern, was sie gerade für ihre Services benötigen.

Man kann sogar noch einen Schritt weiter gehen: So wie ein eCommerce-Anbieter heute keinen eigenen Shop mehr programmieren muss; er sucht sich eine Shop-Lösung aus und befüllt diese und passt sie seinen Bedürfnissen an. Genau das gibt es mittlerweile auch im Banking. Die Solaris-Bank bietet “Banking as a Plattform” an – d.h. ich kann Bank ohne Banklizenz werden. Ein gutes Beispiel dafür ist “Tomorrow”, die nur eine GmbH mit einer interessanten Idee für eine moderne Bank sind und sich alles bei der Solaris-Bank einkaufen. Und all das ist 100% BaFin-konform.

Diese Möglichkeiten machen deutlich, dass die Compliance-Richtlinien der BaFin so einschränkend nicht sind. Was ich als Bank aber natürlich nicht auslagern darf sind Funktionen wie Risikomanagement und die Einhaltung der Compliance.

Andreas Bachmann ist CIO und Mitgründer der Adacor Hosting GmbH. Als Geschäftsführer verantwortet er u.a. die Bereiche Marketing und Compliance. Mit Niederlassungen in Essen und Offenbach hat sich Adacor auf Managed Cloud Hosting für digitales Business spezialisiert. Adacor wurde mehrfach für die besondere Arbeitsplatzkultur und die innovativen Entwicklungen im Unternehmen ausgezeichnet.

Zeitalter des „Digitalen Reflexes“

Neuer App Attention Index: Das Zeitalter des „Digitalen Reflexes“
Anwendungstreue ist die neue Markentreue: Verbraucher erwarten eine einwandfreie digitale Customer Experience

AppDynamics, ein Cisco-Unternehmen und der weltweit größte und am schnellsten wachsende APM-Anbieter, untersucht in seinem aktuellen App Attention Index den so genannten „Digitalen Reflex“ von Konsumenten. Damit ist eine fundamentale Veränderung zu einer unbewussteren Nutzung von digitalen Diensten und Anwendungen gemeint.

Die globale Studie untersucht, inwieweit Verbraucher von Anwendungen und digitalen Diensten abhängig sind und wie sich dies auf ihre Erwartungen an Unternehmen und Marken auswirkt. Sie stellt vor allem eine zunehmende Intoleranz gegenüber Performance-Problemen fest. Verliert heutzutage eine Anwendung Nutzer, verliert auch eine Marke Kunden. Es gilt: Anwendungstreue ist die neue Markentreue. Dem müssen Unternehmen Rechnung tragen, um relevant und wettbewerbsfähig zu bleiben.

Wachsende Abhängigkeit von Anwendungen und digitalen Diensten

Moderne Technologien haben die Art und Weise, wie wir leben, arbeiten und spielen, grundlegend verändert. Digitale Dienste sind heute ein fester Bestandteil unseres Alltags. Dabei sind sich viele Verbraucher gar nicht bewusst, wie sich ihre Nutzung solcher digitalen Dienste entwickelt hat. Im Durchschnitt schätzen die Befragten der AppDynamics Untersuchung, dass sie täglich sieben digitale Dienste nutzen. In Wirklichkeit sind es jedoch mehr als 30. Immerhin 68 Prozent sind sich darüber im Klaren, dass sie viel mehr digitale Dienste nutzen als sie bewusst wahrnehmen und schätzen deren positive Auswirkungen auf ihr tägliches Leben.

  • 70 Prozent sind überzeugt, dass digitale Dienste ihnen helfen, Stress zu reduzieren.
  • 68 Prozent sind der Meinung, dass digitale Dienste ihre Produktivität zu Hause und am Arbeitsplatz verbessert haben – gegenüber 43 Prozent im Jahr 2017 ein deutlicher Anstieg.

Das Zeitalter des „Digitalen Reflexes“

Digitale Dienste haben sich längst zu einem unbewussten Bestandteil des menschlichen Verhaltens entwickelt – einem „Digitalen Reflex“. Während Verbraucher früher eine bewusste Entscheidung getroffen haben, einen digitalen Dienst einzusetzen, um etwas zu erledigen, geschieht das heute häufig spontan. Die Mehrheit (71 Prozent) der Befragten räumt ein, dass digitale Dienste so sehr in ihrem Alltag verankert sind, dass sie deren Einfluss gar nicht mehr genau einschätzen können.

  • 55 Prozent können nur bis zu vier Stunden lang auf ein mobiles Gerät verzichten, bevor es ihnen schwerfällt, selbst alltägliche Aufgaben zu bewältigen.
  • 61 Prozent geben zu, dass sie morgens nach dem Aufwachen als allererstes zu ihrem Handy greifen – noch bevor sie mit jemandem sprechen.

Digitale Leistung wirkt sich auf den Umsatz aus

Mehr als drei Viertel der Verbraucher (76 Prozent) geben an, dass ihre Erwartungen an die Leistungsfähigkeit digitaler Dienste steigen, verglichen mit 62 Prozent im Jahr 2017. Ebenso gibt die Mehrheit (70 Prozent) der Befragten an, Probleme mit digitalen Diensten heute weniger zu tolerieren als noch vor zwei Jahren. Diese zunehmende Intoleranz führt dazu, dass Verbraucher von den Marken, mit denen sie interagieren, eine intuitive und immer bessere Customer Experience verlangen:

  • 50 Prozent der Befragten wären bereit, mehr für ein Produkt oder die Dienstleistung eines Unternehmens zu bezahlen, wenn dessen digitale Dienste besser sind als die eines Wettbewerbers.
  • 85 Prozent gehen davon aus, dass sie in den nächsten drei Jahren Marken anhand der Vielzahl der von ihnen angebotenen digitalen Dienste (Web, Mobiltelefon, Vernetzung usw.) auswählen.
  • Mehr als die Hälfte (54 Prozent) legt inzwischen mehr Wert auf die digitale Interaktion mit Marken als auf die physische.

Anwendungstreue ist die neue Markentreue

Diese Null-Toleranz-Einstellung der Verbraucher gegenüber schlechten digitalen Diensten sollte Unternehmen aufhorchen lassen. Die Studie zeigt, dass Verbraucher im Falle von Leistungsproblemen zu Konsequenzen neigen: Sie wechseln zum Wettbewerb (49 Prozent) oder raten anderen von der Nutzung des Dienstes oder der Marke ab (63 Prozent) – ohne die Marke zu informieren und ihr die Chance zur Verbesserung zu geben.

„Im Zeitalter des Digitalen Reflexes verzeihen oder vergessen Verbraucher schlechte Erfahrungen nicht mehr einfach so. Eine hervorragende Leistung im Digitalen ist heute die Basis für jedes Unternehmen, aber die wahren Gewinner werden diejenigen sein, die die Erwartungen der Kunden immer wieder übertreffen“, sagt Danny Winokur, General Manager bei AppDynamics. „Cisco und AppDynamics unterstützen weltweit führende Unternehmen dabei, ihre Anwendungen zu optimieren, indem sie kritische Echtzeitdaten über die Anwendungs- und Unternehmens-Performance bereitstellen. So können Unternehmen Engpässe erkennen und sofort entsprechend handeln.“

Wie Marken im Zeitalter des „Digitalen Reflexes“ bestehen

Viele Unternehmen investieren heute massiv in digitale Innovationen, um die Kundenbindung und den Umsatz zu steigern. Wenn sie jedoch die Leistung ihrer Anwendungen und digitalen Dienste nicht überwachen, besteht das erhebliche Risiko, dass Kunden unzufrieden sind oder gar zu einer anderen Marke abwandern. Einige einfache Schritte helfen bereits, um diesen Herausforderungen zu begegnen und die steigenden Erwartungen an das digitale Kundenerlebnis zu erfüllen bzw. zu übertreffen:

  • Fokus auf die Anwendungsleistung: Die Implementierung einer robusten APM-Lösung (Application Performance Management) trägt dazu bei, die Performance unternehmenskritischer Anwendungen und die Benutzererfahrung zu sichern.
  • Performance am geschäftlichen Erfolg ausrichten: Die Messung und Analyse der Performance von Anwendungen und deren Ausrichtung auf die Unternehmensleistung stellt sicher, dass digitale Dienste immer auf Geschäftsziele wie Kundenzufriedenheit und Umsatz abzielen.
  • Entscheidungen und Maßnahmen anhand von Fakten: Erstklassige digitale Erlebnisse erfordern die Echtzeitüberwachung des gesamten Technologie-Stacks, vom Gerät des Kunden über die Backend-Anwendung bis hin zum zugrundeliegenden Netzwerk. Entscheidend sind hier Lösungen, die einen AIOps-Ansatz verfolgen, d.h. die Daten werden mithilfe von maschinellem Lernen und KI schnell und automatisch in aussagekräftige Erkenntnisse umgewandelt.

Über AppDynamics 
AppDynamics, ein Cisco-Unternehmen und führender Anbieter von Application-Intelligence-Lösungen, bietet Unternehmen Echtzeit-Informationen zu Anwendungsperformance, User Experience und Geschäftsprozessen und ermöglicht so die nötige Agilität im zunehmend software-getriebenen Umfeld. Die AppDynamics Application Suite basiert auf der App iQ Platform und ermöglicht Unternehmen ihre komplexen softwarebasierten Prozesse zu überwachen, verwalten, analysieren und optimieren. Nicht zuletzt bestätigt das Vertrauen der Global 2000 AppDynamics als führenden Partner in der digitalen Transformation. Weitere Informationen finden Sie unter www.appdynanmics.de   

Pressekontakt 
Hotwire 
AppDynamics@hotwirepr.com 
+49 69 25 66 93 31

Aufmacherbild / Quelle / Lizenz
Bild von Prashant Gautam auf Pixabay

Textlizenz: Die ist eine Pressemitteilung von AppDynamics

NoSQL – Leistungsstarke Applikationen

Leistungsstarke Applikationen bauen mit NoSQL

Gastbeitrag von Bruno Šimić *

Die Geschäftswelt steckt mitten in der digitalen Transformation.  Die Treiber der Veränderung sind Online-Handel, Social Media, Streaming oder auch neue Kommunikationstechnologien. Klassische RDBMS können mit diesen neuen Herausforderungen nicht mehr performant, effizient und kostengünstig umgehen, Unternehmen entscheiden sich daher zunehmend für NoSQL-Datenbanken.

NoSQL-Datenbanken bügeln die Schwächen relationaler Datenbank-Management-Systeme (RDBMS) aus. Sie sind besonders gut darin, hohe Datenvolumina aus semi- und unstrukturierten Daten mit vielen Schreib- und Lese-Operationen zu bearbeiten. NoSQL-Datenbanken sind die Spezialisten für Fotos, Videos und Textdokumente aller Art, also für die Daten, die in der Kommunikation mit Kunden, Partnern, Lieferanten und Mitarbeitern heute typischerweise anfallen. Die alten RDBMS können zwar auch mit unstrukturierten Daten umgehen, aber nur zu wesentlich höheren Kosten für die zugrundeliegende Infrastruktur beziehungsweise Hardware. Zudem leidet die Performance, weil sie architektonisch nicht dafür ausgelegt sind.




NoSQL-Datenbanken wie Couchbase sind deutlich flexibler als klassischeRDBMS, beherrschen aber auch die Transaktionen und SQL-Standard relationaler Systeme. (Quelle: Couchbase)

NoSQL-Datenbanken skalieren schnell und kostengünstig

Einer der Hauptvorteile bei der Einführung einer NoSQL-Datenbank mit verteilter Architektur besteht darin, dass sie deutlich schneller, einfacher und kostengünstiger skalieren als eine relationale Datenbank. Die meisten RDBMS beherrschen außer der vertikalen Skalierung (Scale-up) nur rudimentäre Formen der horizontalen Skalierung (Scale-out). Im Unterschied dazu nutzen die meisten NoSQL-Datenbanken eine horizontale Skalierung (Scale-out), bei der Daten und Leistung mithilfe von Containern und Virtuellen Maschinen auf zusätzliche Server verteilt werden. Auch mehr Benutzer werden auf mehr Servern aufgeteilt, um Latenzzeiten niedrig zu halten. Um eine hohe Verfügbarkeit und Sicherheit zu gewährleisten, unterstützt Couchbase mit einer standardmäßig vorhanden dedizierten Cross-Datacenter-Replication (XDCR)-Funktion die uni- und bidirektionale Replikation über mehrere Rechenzentren. Viele RDBMS dagegen benötigen für die Replikation zusätzliche Software – und das bedeutet höhere Lizenzkosten.

JSON-Dokumente flexibler und agiler als Tabellen

Auch bei der Datenablage zeigen sich deutliche Unterschiede. NoSQL-Dokumentdatenbanken speichern Daten in JSON (JavaScript Object Notation); im Unterschied dazu nutzen relationale Datenbanken dafür eher fixe Tabellen. JSON bietet ein kompaktes, sehr flexibles Datenformat, um Arrays, Objekte und andere Variablen auch geschachtelt in lesbarer Form zu speichern. Damit lassen sich semi- und unstrukturierte Textdokumente besser abbilden. Die NoSQL-Datenbank Couchbase Server speichert JSON-Dokumente in „Buckets“ die über mehrere Serverknoten verteilt sind. Ein Bucket ist ein Daten-Speicher bei Couchbase und entspricht einer Datenbank bei RDBMS.

„NoSQL-Datenbanken kommen mit den neuen Anforderungen und Datentypen
deutlich performanter und kostengünstiger zurecht als die klassischen RDBMS.“

Starke Teamarbeit

Unternehmen, die NoSQL-Datenbanken nutzen, haben in einer frühen Evaluationsphase einen Use Case, eine Applikation oder einen Service ausgewählt. Typische Beispiele sind Produktkataloge, auf die viele Kunden mit stationären und mobilen Endgeräten zugreifen, Online-Buchungssysteme mit einer großen Zahl gleichzeitiger Benutzer, Asset-Tracking-Services, Content-Management-Dienste, Customer Management Services oder Streaming-Dienste für Videos. Auch wenn Big Data und Streaming immer mehr an Bedeutung gewinnen, werden nicht alle Unternehmen ihre sämtlichen Legacy-RDBMS in einem Schritt auf eine moderne NoSQL-Datenbank migrieren. Das ist auch gar nicht nötig, denn NoSQL und RDBMS bilden ein starkes Team: eine NoSQL-Datenbank wie Couchbase übernimmt zum Beispiel als performanter Cache-Server die neuen modernen Datentypen, während ein RDBMS das klassische, transaktionale Datenbankgeschäft erledigt. Kunden profitieren dadurch vom Besten aus beiden Welten.

* Bruno Šimić ist Senior Solutions Engineer bei Couchbase in München

Aufmacherbild / Quelle / Lizenz
Bild von Markus Spiske auf Pixabay

Incident Response: Vieles liegt im Argen

Trotz der nach wie vor zunehmenden Sicherheitsvorfälle hat eine Untersuchung von NTT Security erneut ein beunruhigendes Ergebnis zutage gefördert. Noch nicht einmal die Hälfte der befragten deutschen Unternehmen verfolgt eine Incident-Response-Strategie.

Obwohl nur mit dedizierten Ablauf- und Notfallplänen angemessen und schnell auf Sicherheitsvorfälle reagiert werden kann, wird das Thema Incident Response weiterhin stiefmütterlich behandelt – so lautet ein zentrales Ergebnis des Risk:Value-Reports von NTT Security (1). Nur 36% der deutschen Unternehmen verfügen über einen Incident-Response-Plan. Immerhin 42% befinden sich laut Studie im Implementierungsprozess und weitere 13% planen die Umsetzung entsprechender Maßnahmen in naher Zukunft.

Aber auch die erfreulich hohe Zahl laufender Implementierungen und Projekten in Planung ist bei genauer Betrachtung ernüchternd: Die vergangenen Studien machen deutlich, dass sie oft nur Compliance-getrieben sind und reine Absichtserklärungen bleiben, die nicht zu einer signifikanten Verbesserung der Incident Response Readiness der Unternehmen im Folgejahr führen – nur wenige dieser Incident-Response-Projekte werden erfolgreich umgesetzt.

Doch selbst wenn ein Unternehmen eine Incident-Response-Strategie verfolgt, sind nach NTT-Erfahrung Prozesse oft falsch oder unzureichend aufgesetzt. Wichtig ist vor allem die Erkenntnis, dass ein Incident-Response-Plan keine statische Angelegenheit ist. Er kann nicht in eine Schublade gelegt und nur bei Bedarf genutzt werden. Er muss vielmehr regelmäßig getestet werden – und zwar wie bei einer Brandschutzübung. Das heißt, die Tests müssen möglichst realitätsnah erfolgen. Und wenn dabei etwas nicht funktioniert, müssen unmittelbar Verbesserungen initiiert werden. Solche kontinuierlichen Tests auf Unternehmensseite sind aber eher die Ausnahme. Und gerade Worst-Case-Szenarien werden nahezu nie betrachtet. Ein effizienter Incident-Response-Plan muss aber gerade auf derartige gravierende Sicherheitsvorfälle ausgerichtet sein.

Darüber hinaus ist es von essenzieller Bedeutung, dass alle von Incident-Response-Prozessen betroffenen Mitarbeiter informiert sind. Sie müssen genau wissen, welche Rolle und Aufgabe ihnen zukommt. Und dafür sind regelmäßige Trainings und Schulungen erforderlich, denn die konkreten Anforderungen ändern sich permanent, gerade in der schnelllebigen IT.

Andererseits gibt es aber auch positive Tendenzen: Rückblickend auf das vergangene Jahr ist festzuhalten, dass immer mehr Unternehmen professionell kommunizieren, wenn ein Sicherheitsvorfall eintritt. Zum einen ist diese Entwicklung getrieben durch die DSGVO, die klare Vorgaben hinsichtlich Meldepflichten macht. Zum anderen ist aber auch eine generell bessere Information der Öffentlichkeit und der Kunden zu beobachten. Damit reagieren Unternehmen auf die zunehmende Sensibilität der Bevölkerung in Sachen Datenschutz und Datensicherheit.

Zum Schluss noch ein wichtiger Punkt: Viele IT-Initiativen in Unternehmen sind heute rein Compliance-getrieben. Regularien wie die DSGVO sehen einen Incident-Response-Plan vor, also investieren Unternehmen. Das sollte jedoch nicht der Hauptmotivator sein, sondern die Verbesserung des Sicherheitsniveaus. In erster Linie muss es immer um die Erhöhung der Sicherheit für das eigene Unternehmen und die kritischen Systeme, Applikationen und Daten gehen. Ist diese gewährleistet, werden Gesetze, Verordnungen oder Richtlinien automatisch erfüllt. Compliance und Cybersicherheit gehen in einer ganzheitlichen Strategie „hand-in-hand“ und ergänzen sich perfekt zum Nutzen des Unternehmens.

 

Gastautor
Kai Grunwitz ist Geschäftsführer von NTT in Deutschland

(1) Die Risk:Value-Studie wurde im Auftrag von NTT Security zwischen Februar und März 2019 vom Marktforschungsunternehmen Jigsaw Research durchgeführt. Dabei wurden weltweit mehr als 2.200 Führungskräfte zu Themen rund um die IT und IT-Sicherheit befragt.

Die vollständige Risk:Value-Studie zum Download finden Sie unter:
https://www.nttsecurity.com/de-de/risk-value-report-2019

Moonshots for Europe

Die TREND-REPORT-Redaktion sprach mit Harald Neidhardt, CEO & Curator, Futur/io – European Institute of Exponential Technologies & Desirable Futures. über die die Innovationslandschaft in Europa und das Potential von Moonshot Thinking.

Stammdatenmanagement-Projekt erfolgreich starten

Ein Stammdatenmanagement-Projekt starten – Schritt-für-Schritt-Anleitung für einen Business Case

Die Einführung von Stammdatenmanagement ist ein großer Schritt – organisatorisch, strukturell und budget-seitig. Damit den Entscheidern im Unternehmen die Beurteilung des Vorhabens erleichtert wird, liegt ein wichtiger Teil der Vorbereitung in der Business Case Erstellung. Im Business Case werden Kosten und Nutzen skizziert, der Return on Investment (ROI) bestimmt und das gesamte Projekt schrittweise und strukturiert bewertet. Der vorliegende Artikel erläutert die einzelnen Schritte, die zur Erstellung eines überzeugenden Business Case notwendig sind.

Warum einen Business Case für MDM?

Stammdatenmanagement ist ein langfristiges Projekt, das die gesamte Organisation, weit über die IT-Abteilung hinaus, betrifft. Jene Art von Investitionsentscheidung muss entsprechend auf der obersten Leitungsebene des Unternehmens entschieden und unterstützt werden. Aber auf welcher Basis kann die langfristige Vorteilhaftigkeit der Investition belegt werden, um das zahlengetriebene Management von der Nachhaltigkeit eines Stammdatenmanagement-Projekts zu überzeugen?

Ein besonderes Augenmerk bei der Erstellung eines Business Case sollte auf den Vorteilen von MDM liegen, wie z. B.:

  • Höhere Produktivität
  • Mehr Kundenzufriedenheit
  • Optimierte Lagerhaltungskosten
  • Sicherung der Wettbewerbsfähigkeit

Und die Chancen für eine erfolgreiche Entscheidung stehen gut: MDM wird verstärkt als Business Enabler anerkannt und bildet die Grundlage für eine unternehmensweite Digitalisierung.

Schritt 1: Geschäftsbereich bestimmen

Schlechtes Stammdatenmanagement verursacht Probleme in verschiedensten Geschäftsbereichen. Häufige Anwendungsszenarien können dabei sein:

  • Kreditoren: Die Geschäftsführung verlangt eine Übersicht über die wichtigsten Zulieferer des Unternehmens. Die Erstellung des Reports benötigt jedoch viel mehr Zeit als erwartet. Die Daten – von der Produktions-, Logistik- und Finanzabteilung in unregelmäßigen Zeitabständen konsultiert und gepflegt – sind aufgrund unterschiedlicher Produktlinien über mehrere Datenbanksysteme verteilt.
  • Marketing: Zu Weihnachten verschickt das Unternehmen Grußkarten mit einem kleinen Präsent. Die Marketingabteilung nutzt ein CRM. Die dort hinterlegten Adressen werden nur dann überprüft und aktualisiert, wenn ein Mitarbeiter zufällig einen Fehler entdeckt. Nach Weihnachten erhält das Unternehmen eine Vielzahl von Postrückläufern.
  • Lagerhaltung: Ein Unternehmen des produzierenden Gewerbes ist darauf angewiesen, den Lagerraum so effektiv wie möglich zu nutzen. Deshalb wird die Einkaufsabteilung angewiesen, die Beschaffung der Produktionsmaterialien so zu gestalten, dass ein reibungsloser Ablauf der Produktion gewährleistet ist. Gleichzeitig soll so wenig Lagerfläche wie möglich belegt werden. Der Spagat zu einer ständigen Verfügbarkeit der Produkte bei möglichst kurzen Lieferzeiten stellt eine Herausforderung dar.

Identifizieren Sie also die betroffenen Fachabteilungen und richten Sie Ihren Business Case an diesen aus.

Schritt 2: Die wichtigsten Stakeholder identifizieren (CEO, CFO, LOB-Management)

Welche Personen und Rollen werden Berührungspunkte mit Ihrem MDM-Projekt haben? Genau diese Personen können Ihnen vorab wertvolle Informationen und Anforderungen zur Verfügung stellen. Außerdem sollten Sie sich darum bemühen, den konkreten Nutzen, den die jeweiligen Personen aus dem MDM-Projekt ziehen können, herauszustellen.

Die Stakeholder im MDM-Prozess stammen in der Regel aus der IT, der Geschäftsführung und den betroffenen Abteilungen. Dabei kann es sich beispielsweise um Bereichsleiter, Datenbeauftragte, Analysten oder Prozessverantwortliche handeln. Der jeweilige Datentyp bestimmt die Gruppe der involvierten Personen, z. B.:

  • Kundendaten: Leiter Vertrieb, Service, Marketing und Finanzen
  • Produktdaten: Leiter von Forschung & Entwicklung, Produktion, Marketing, Vertrieb, Service, Logistik und Finanzen
  • Lieferantendaten: Leiter der Lieferkette, Beschaffung und Finanzen
  • Mitarbeiterdaten: Leiter Personal und Finanzen

Auf der obersten strategischen Ebene möchte der Vorstand oder die Geschäftsführung wissen, wie sich der Aktienwert und die Marktkapitalisierung des Unternehmens durch MDM ändern. Zusätzlich ist abzusichern, dass die Bereichsleiter die MDM-Initiative unterstützen und deren Vorteile, Risiken und Kosten verstehen.

Ein Chief Financial Officer (CFO) kann ROI- und Kapitalwertberechnungen einfordern, da diese Person einen besonderen Fokus auf die Projektkosten legt. Um ihre Unterstützung zu bekommen, muss der Business Case also auch Informationen zu folgenden Aspekten enthalten:

  • Die zu implementierende MDM-Lösung
  • Die zu verwendenden Komponenten
  • Übersicht über Prozesse, die sich ändern werden
  • Die erforderlichen Ressourcen
  • Ein Implementierungsfahrplan, der detailliert genug ist, um die Kostenschätzungen mit hinreichender Sicherheit zu begründen

„Eine gute Struktur ist für die Erstellung eines MDM Business Case enorm hilfreich. Lernen Sie, in Dimensionen zu denken. Versuchen Sie, für den Status Quo Ihres Unternehmens eine Zukunftsvision zu ermitteln. So können Sie dann zielgerichtet für einen Geschäftsbereich die spezifischen Kosten und den Nutzen abschätzen und einen monetären Business Case erstellen – der Ihnen zu einem erfolgreichen Projektantrag verhilft.“

Dr. Tobias Brockmann von der innoscale AG

Schritt 3: Lösungen entwickeln und die Zukunftsperspektive aufzeigen

Hier bietet es sich an, das Projekt in mehrere Phasen zu untergliedern, Meilensteine festzulegen und einen groben Zeitplan aufzustellen. Planen Sie genügend Zeit ein, denn MDM-Projekte dauern aufgrund ihrer Komplexität häufiger etwas länger als erwartet. Entwickeln Sie eine Strategie und erstellen Sie eine Roadmap für die Umsetzung. Versuchen Sie dabei die folgenden Fragen zu beantworten:

  • Wie sieht das Zukunftsbild der Organisation mit einer MDM-Lösung aus?
  • Wie wird die Organisation dadurch verbessert?
  • Welche Prozesse ändern sich dadurch?
  • Welche Synergieeffekte werden erzielt?

Schritt 4: Ermittlung des Return on Investment (ROI)

Wägen Sie die Kosten schlechter Datenqualität gegen das Potenzial guter Datenqualität ab. Dieses MDM-ROI-Framework kann Ihnen dabei als Vorlage dienen.

Diese Tabelle enthält typische Beispiele für Kosten schlechter Datenqualität sowie Nutzen guter Datenqualität, die je nach Unternehmen und Business Case variieren. Sie sollen als Anregung für die Erstellung Ihres individuellen MDM Business Case dienen.

Unser Autor
Dr. Tobias Brockmann

Aufmacherbild / Quelle / Lizenz
Photo by Helloquence on Unsplash

Protolabs Studie: The Innovation Race

Die aktuelle Studie von Protolabs zeigt: Einer der großen Automobilhersteller wird in den nächsten drei Jahren vom Markt verschwinden

Innovationskraft als Schlüsselkompetenz für die Automobilbranche

Feldkirchen bei München, 1. Oktober 2019 – Mehr als die Hälfte der Befragten einer aktuellen Umfrage in der Automobilbranche erwartet, dass einer der großen Automobilhersteller in den nächsten drei Jahren vom Markt verschwinden wird. Dies geht aus der Studie „The Innovation Race“ von Protolabs hervor, in der das Unternehmen die Herausforderungen und Chancen für die europäischen Automobilhersteller untersucht hat.

Strengere Umweltauflagen in den kommenden 12 Monaten wurden von 55 Prozent der Befragten als die drängendste Sorge für die nahe Zukunft angesehen, während 52 Prozent der Ansicht sind, dass ein neuer Wettbewerber den Markt mit einer revolutionären Antriebstechnologie/Fahrzeugart in den nächsten drei Jahren massiv verändern wird.

Relevanz von Industrie 4.0 in der Automobilbranche

Die Umfrage, an der über 300 hochrangige Führungskräfte von Automobilherstellern und Großzulieferern wie Volkswagen, BMW, Mercedes, Daimler, Volvo, JLR, Lotus, Williams F1 und Magneti Marelli teilgenommen haben, zeigt auch den Übergang zur nächsten industriellen Revolution – 71 Prozent der Befragten gaben an, dass sie sich verstärkt den Bereichen Industrie 4.0 und Digitalisierung von Prozessen zuwenden müssen, um ihre Vormachtstellung zu behalten.

„In der Automobilbranche scheint sich ein regelrechter Sturm zusammenzubrauen, gefördert durch Handelskriege, der Brexit-Problematik und dem Wettlauf um die Elektrifizierung. Dies bedeutet eine Zeit extremer Veränderungen für die Automobilmarken sowie der gesamten Lieferkette“, sagt Bjoern Klaas, Vice President und Managing Director von Protolabs Europe, der weltweit schnellsten digitalen Quelle für individuell gefertigte Prototypen und Kleinserienteile.

„Aufgrund all dieser Herausforderungen ist es unerlässlich, dass die Industrie weiterhin in Forschung und Entwicklung und in gemeinsame Bemühungen investiert, Innovationen schnell auf den Markt zu bringen“, so Bjoern Klaas weiter. „Die neue Studie hebt die vielen Veränderungen hervor, die in den nächsten drei Jahren zu erwarten sind. Dabei ist Innovation der ausschlaggebende Faktor für den zukünftigen Erfolg in der Automobilbranche.“

Innovationsdruck: Schnelle Markteinführung von Innovationen entscheidend

Fast 70 Prozent der Befragten gaben an, dass sie noch nie unter solch einem großen Innovationsdruck gestanden haben wie heute. Zwei Drittel der Befragten sind zudem der Meinung, dass ihr Unternehmen ohne eine starke Forschungs- und Entwicklungsabteilung nicht mehr existieren könnte.

„Wir wissen, dass wir mit der Veröffentlichung der Studie eine starke Botschaft aussenden, die unterstreicht, welche Entwicklungen wir auch bei Protolabs erkennen“, so Bjoern Klaas. „Die Nachfrage nach unseren Services steigt zunehmend und gibt Unternehmen die Möglichkeit, innerhalb kürzester Zeit neue Teile zu entwickeln. Die schnelle Markteinführung ist in der Automobilbranche von entscheidender Bedeutung.“

Stärken und Schwächen

Positiv zu vermerken ist, dass 69 Prozent der Befragten zufrieden damit sind, wie sie Innovationen umsetzen können. Drei Viertel gaben an, dass sie ihre Prozesse darauf ausgerichtet haben, Kundenwünsche bereits in einem frühen Stadium des Designprozesses zu berücksichtigen.

Fast die Hälfte der Befragten sieht es als problematisch, ein erfolgloses Produkt einzustellen, ohne negative Auswirkungen zu erleiden, während 40 Prozent der Befragten der Meinung sind, dass ihre Innovationsstrategie nicht genügend mit der Unternehmensvision korreliert.

„Es gibt vonseiten der Unternehmen eine echte Bereitschaft zur Innovation, das ist klar zu erkennen“, so Bjoern Klaas. „Das Problem ist jedoch, dass es so viele Veränderungen im Automobilsektor gibt, dass selbst die größten Hersteller darum kämpfen, mit der Entwicklung Schritt zu halten.“

„Um die Herausforderungen bewältigen zu können, sollten sich Automobilhersteller auf ihre Kernkompetenzen konzentrieren und Know-how, das darüber hinausgeht, von externen Dienstleistern beziehen, um ihren Wettbewerbsvorteil nach wie vor halten zu können. Hier kann das Zurückgreifen auf externe Expertise ausschlaggebend dafür sein, um den entscheidenden Wettbewerbsvorteil zu erhalten.“

Innovationskraft als Schlüsselfaktor

Geht es um die Innovationskraft von Unternehmen in Deutschland, ist vor allem Kommunikation eine Schlüsselmaßnahme. Von 33 Prozent der deutschen Befragten wird angegeben, dass sie eine unternehmensweite Innovationskultur verankert haben, jedoch sagten lediglich 19 Prozent der Befragten, dass der Innovationsaspekt vom Geschäftsführer vorangetrieben wird. Nur 16 Prozent gaben an, dass sie überlegen, ihr Geschäftsmodell vollständig zu überdenken.

Um ihren Innovationsgrad zu erhöhen, ergreifen deutsche Unternehmen allerdings bereits zahlreiche Maßnahmen. 58 Prozent der deutschen Befragten sagten, dass sie die Kommunikation zwischen Forschung und Entwicklung sowie Sales/Marketing/Vertrieb verbessern wollen. 32 Prozent gaben an, von der Innovationskraft von externen Anbietern und Dienstleistern zu profitieren.

Methodik

Die Studie von Protolabs wurde im Juli 2019 durchgeführt.
300 führende Automobilexperten aus Deutschland, Frankreich, Italien und Großbritannien nahmen daran teil.
Die Befragten arbeiten in den Bereichen Geschäftsleitung, Forschung und Entwicklung, Engineering-Design, Technologie und Supply Chain Management und geben einen der zurzeit umfassendsten Einblicke in die Branche.

Innovation war ein Kernthema der Umfrage, die zeigt, dass Unternehmen unterschiedlich darauf vorbereitet sind, diesen Aspekt umzusetzen.

Die komplette Studie zum Download:
https://get.protolabs.de/innovation-race/

Weitere Informationen zum Unternehmen finden Sie unter
www.protolabs.de

Kontaktinformationen:
PR-Agentur
HBI GmbH
Jasmin Rast
protolabs@hbi.de
Tel.: 089/993887-27

Protolabs
Tobias Fischer
marketing@protolabs.de
+49 (0) 89 905002 0

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

30. Jubiläum der SPS

Weiter auf Erfolgskurs: Zum 30. Jubiläum öffnet die Fachmesse für die smarte und digitale Automatisierung, die SPS – Smart Production Solutions, vom 26. – 28. November 2019 wieder Ihre Tore in Nürnberg.

Die Aussichten und die Buchungszahlen für die Messe sind erneut sehr positiv und bestätigen die Bedeutung der Fachmesse. Rund 1.650 Anbieter von Automatisierungstechnik aus aller Welt werden als Aussteller erwartet. Aktuelle Produkte und Lösungen der industriellen Automation aber auch richtungsweisende Technologien der Zukunft stehen im Fokus der Leistungsschau.

Umfassendes Automatisierungsangebot

Besucher der Messe profitieren von dem umfassenden Angebot der nationalen und internationalen Automatisierungs- und Digitalisierungsanbieter und können sich dennoch innerhalb eines Tages einen kompletten Marktüberblick verschaffen. So verzeichnet der Messeveranstalter Mesago 71 % Tagesbesucher auf der Automatisierungsmesse. 7 % der Besucher nehmen für ihre Technologie-Recherche alle drei Messetage in Anspruch. Der Anteil internationaler Besucher lag im vergangenen Jahr bei 27,6 % (18.154 Besucher). 47.546 Besucher der Vorjahresveranstaltung stammten aus Deutschland.

Statements bestätigen die positiven Eindrücke der Besucher von der Fachmesse:

“Für jeden Automatisierer ist der Besuch der SPS jährliches Pflichtprogramm. Produkte zum Anfassen, persönlicher Kontakt, Überblick über den Markt, darin ist diese Messe unschlagbar,” erklärt Horst Fritz, Geschäftsführer der Fritz Automation GmbH.

“Die SPS ist das Highlight des Messejahres für mich. Sie hat Leuchtturmcharakter für die Automatisierungsbranche. Die Bündelung von Automatisierung und IT hilft auf dem Weg der Digitalisierung. Vor Ort treffen wir wirklich alle Entscheider aus der Automatisierungstechnik. Die Messe hat für uns einen unschätzbaren Wert.” erklärt Lorenz Arnold, Geschäftsführender Gesellschafter, MGA Ingenieurdienstleistungen GmbH.

Digitaler Wandel im Mittelpunkt

Die Digitalisierung hat einen enormen Einfluss auf die Automatisierungsbranche. Zahlreiche Aussteller zeigen daher vor Ort ihre Lösungsansätze, aber auch diverse Produkte und Applikationsbeispiele zur Digitalen Transformation. Auch IT-Anbieter sind vermehrt auf der SPS vertreten. Der Charme hierbei ist: IT-Themen werden sehr stark und fokussiert im Verbund mit den Automatisierern dargeboten. Präsentationen der Themen wie Big Data, Cloud-Technologie, 5G und Künstliche Intelligenz erfolgen oft praxisbezogen in Gemeinschaftsaktionen und -demos zusammen mit Automatisierungsanbietern. Themenbezogene Sonderschauflächen und Vorträge auf den Messeforen tun ihr Übriges zur Darstellung der digitalen Transformation in der fertigenden Industrie.

Im Rahmen von Guided Tours wird auch in diesem Jahr Besuchern aus dem In- und Ausland die Gelegenheit gegeben, in geführten Touren innovative Aussteller zu einzelnen Themen zu besuchen. So können sich die Teilnehmer einen kompakten Überblick zu den Themen Machine Learning und KI, Industrial Security in der Fertigung, Cloud Ecosysteme und Predictive Maintenance verschaffen. Der Fokus der Touren liegt dabei auf echten Use Cases.

Der im vergangenen Jahr erstmalig durchgeführte Automation Hackathon fand großen Anklang. Hier werden im Wettbewerbs-Charakter nützliche und kreative Softwarelösungen für die Automatisierungsbranche programmiert. Aufgrund der intensiven Planungsvorbereitung wird der nächste Automation Hackathon in 2020 stattfinden.

Gemeinschaftsstände und Foren runden das Messeangebot ab

Umfassende Einblicke in spezifische Themen und die Möglichkeit sich von Anbietern zu individuellen Anforderungen beraten zu lassen, erhalten Besucher auf den Gemeinschaftsständen:

  • “Automation meets IT” in Halle 6
  • “AMA Zentrum für Sensorik, Mess- und Prüftechnik“ in Halle 4A.

Die Foren der Verbände VDMA in Halle 5 und ZVEI in Halle 6 sowie die Messeforen in Halle 3 und 10.1 bieten qualitativ hochwertige und fachspezifische Vorträge sowie Podiumsdiskussionen an. Besucher können sich hier zu branchenaktuellen Themen informieren und mit Experten im persönlichen Dialog austauschen.

Copyright Mesago / Fotograf Mathias Kutt

Begleitender Kongress: Automation 4.0 Summit

Für all jene, die sich noch tiefgehender zu aktuellen Themen der Automation informieren wollen, bietet sich der von den WEKA Fachmedien organisierte begleitende Kongress zur SPS an. In 4-stündigen Sessions werden dieses Jahr die Themen

5G, TSN und OPC UA in der Industrie
Securely connected – vom Sensor bis zur Cloud
IOT-Plattformen – Best Practises
Flexible Automatisierung für wenig Geld – was leistet die Robotik?

unter praxisbezogenen Aspekten fokussiert beleuchtet.

Key Facts zur Veranstaltung

Was: SPSSmart Production Solutions

Wann: 26. – 28.11.2019

Wo: NürnbergMesse

Planung & Vorbereitung
Weitere Informationen zur Veranstaltung, Tickets, Reisespecials sowie Tipps zur Vorbereitung
finden Sie unter sps-exhibition.com

Aus SPS IPC Drives wurde SPS

Seit Beginn 2019 trägt die SPS IPC Drives einen neuen Namen: SPS – Smart Production Solutions. Der Name der etablierten Fachmesse hat sich geändert, das bewährte Konzept und die inhaltliche Ausrichtung bleiben bestehen und werden fortgeführt. Der Veranstalter Mesago Messe Frankfurt GmbH trägt hiermit der digitalen Transformation der Industrie Rechnung und verspricht weiterhin Relevanz, Kompetenz und einen Austausch auf Augenhöhe.

Über Mesago Messe Frankfurt

Mesago mit Sitz in Stuttgart wurde 1982 gegründet und ist Veranstalter fokussierter Messen, Kongresse und Seminare mit Schwerpunkt auf Technologie. Das Unternehmen gehört zur Messe Frankfurt Group. Mesago agiert international, messeplatzunabhängig und veranstaltet pro Jahr mit 160 Mitarbeitern Messen und Kongresse für mehr als 3.300 Aussteller und über 110.000 Fachbesucher, Kongressteilnehmer und Referenten. Zahlreiche Verbände, Verlage, wissenschaftliche Institute und Universitäten sind als ideeller Träger, Mitveranstalter und Partner aufs Engste mit Mesago-Veranstaltungen verbunden. (mesago.de)

Hintergrundinformationen Messe Frankfurt
Weitere Informationen: www.messefrankfurt.com

Aufmacher / Quelle / Lizenz
Copyright Mesago / Fotograf Mathias Kutt

Konzepte für Mobilität und Logistik von morgen

Experten und First Mover diskutieren Konzepte für die Mobilität und Logistik von morgen

Die Frage wie wir uns zukünftig von A nach B bewegen, wird angesichts von Klimawandel, veralteter Infrastruktur, Dieselfahrverboten und drohendem Verkehrskollaps in Ballungsräumen, immer dringlicher. Auf der Hypermotion vom 26. bis 28. November 2019 treffen sich Experten und First Mover, um über neue Konzepte zur Mobilität und Logistik zu diskutieren.

Aktuelle Fragestellungen zur Zukunft von Mobilität und Logistik beleuchten hochkarätige Experten in Konferenzen, Diskussionsrunden und Think Tanks. Dabei reicht das Themenspektrum von der Digitalisierung und Vernetzung von Verkehrssystemen über zukünftige Mobilitätskonzepte, Mikromobilität und Radverkehr und die Elektrifizierung des Verkehrs bis zu nachhaltigen Lösungen und Supply Chains für die Logistik von morgen.

Zum ersten Mal findet der Deutsche Mobilitätskongress auf der Hypermotion zum Leitthema „Mobilität in Ballungsräumen – Chancen und Herausforderungen“ statt. Den Auftakt am 26. November macht die „Zukunftswerkstatt Mobilität“, die sich an die Fach- und Führungskräfte von morgen richtet. Am Nachmittag folgt eine Podiumsdiskussion zum Thema „Entwicklung Schieneninfrastruktur FrankfurtRheinMain“. Der zweite Tag steht unter dem Thema „Stadt der Zukunft“. Dabei werden in unterschiedlichen Veranstaltungsformaten die Herausforderungen der Städte im Hinblick auf die Mobilitätsbedürfnisse ihrer Bewohner, Entwicklungsansätze und Fallstricke des Ridesharings sowie erfolgreiche Mobilitätskonzepte diskutiert.

Die Stuva-Tagung, das Event der Tunnelbranche, findet parallel zur Hypermotion vom 26.-28. November 2019 in der Halle 5 auf dem Frankfurter Messegelände statt. Besucher erwartet ein umfangreiches Vortragsprogramm sowie die tagungsbegleitende Fachausstellung STUVA-Expo mit rund 200 ausstellenden Unternehmen.

Im Fokus der smc:smart mobility conference steht die DNA unserer zukünftigen Verkehrs- und Transportsysteme. Die Themen reichen von den neuesten Ideen für die Mobilität von morgen, über die besten Ansätze für die Vernetzung und Entwicklung der Infrastruktur zu Lande, zu Wasser und in der Luft bis zu Innovationen und deren konkreter Anwendung in Städten und Regionen. Die in Kooperation mit der Lotsenstelle des BMVI (Bundesministerium für Verkehr und digitale Infrastruktur) organisierte Konferenz skizziert die Mobilität der Zukunft und diskutiert die Auswirkungen auf die Stadtraum- und Regionalentwicklung. An den drei Veranstaltungstagen sprechen Experten mit den Teilnehmern über Chancen und Risiken auf dem Weg zur Mobilitätswende. Sie beleuchten die wichtigsten Trends, disruptive Veränderungen, evolutionäre Entwicklungen und die dafür notwendigen, kleinen und großen Revolutionen in MIV, ÖPNV und in der Logistik.

Dabei werden Fachkonferenzen, Ausstellung, Workshops und interaktive Elemente zu einem inhaltlichen Rückgrat der Hypermotion kombiniert. Als Bindeglied zwischen Logistik, Mobilität, Digitalisierung und Klimaschutz schafft die smc ein Forum für den Austausch von innovativen Mobilitätskonzepten sowie den Wissenstransfer bei der Umsetzung der seitens des BMVI geförderten Green City Masterpläne und damit zwischen Kommunen, Forschern, Unternehmen und privaten Interessen. Neben smarten Lösungen für Green Cities und Digitale Regionen wird in den interaktiven Sessions ein weiterer Schwerpunkt auf die EU-weit diskutierte Entwicklung hin zu kooperativen intelligenten Transport Systemen (C-ITS) gelegt. Die smc:Fraunhofer Mobility Infusion von der Fraunhofer Allianz Verkehr garantiert die notwendige Einbindung wissenschaftlicher Erkenntnisse und den aktuellen Stand der Forschung und Entwicklung.

Das Hypermotion-Lab ist die zentrale Bühne für disruptive und zukunftsgerichtete Themen. An den drei Tagen wagen Experten einen Blick in die Zukunft, u.a. geht es um die Themen Flugtaxi und Drohnen, Hyperloop, Verkehr der Zukunft, Künstliche Intelligenz, erste und letzte Meile und Mobilität in Ballungsräumen.

Bild von Pexels auf Pixabay

Das Urban Mobility Lab geht der Frage nach, ob neue Mobilität die Lebensqualität unserer Städte verbessern kann. Hier diskutieren Stadt- und Verkehrsplaner, Architekten, Zukunftsforscher und junge Kreative die Potentiale einer stadtgerechten Mobilität. Besucher können auf Augenhöhe mit renommierten Experten zusammenarbeiten und Studenten ihr eigenes Können unter Beweis stellen. An der Schnittstelle von Mobilität und Urbanität untersucht das Urban Mobility Lab die Trends, die öffentliche Räume nachhaltig verändern – Digitalisierung, Elektrifizierung, Fußgänger- und Fahrradmobilität, urbane Logistik, Intermodalität und Regionale Vernetzung.

Zum Thema „Alternative Mobilität in der Stadt: vom Besitzer zum Nutzer – wie man im urbanen Bereich günstiger und schneller zum Ziel kommt“ gibt es interessante Talks im VISION Mobility THINK TANK am 26. November. Spannende Einsichten liefert auch die zweite Session „Letzte Meile: Motor aus – Neue Konzepte von der Mikromobilität bis zum Lastenrad“.

Beim internationalen Supply-Chain-Gipfel ‚EXCHAiNGE – The Supply Chainers’ Community‘ diskutieren Supply-Chain-Experten und  Operations-Verantwortliche unter dem Leitmotiv „Management 4.0 – New Work & Digital Business“ am 26. und 27. November 2019.

Technologie, Innovation, Kollaboration, Mobilität, Nachhaltigkeit, Kultur und Mindsets – das sind wesentliche Erfolgsfaktoren einer ganzheitlichen Supply Chain. Wie es Führungskräften gelingt, diese Bausteine erfolgreich in Ecosystemen und Netzwerken zu etablieren, wird auf der EXCHAiNGE gezeigt. Die etablierte Networking‑Plattform bringt Experten in interaktiven Formaten zusammen und verknüpft Trends mit strategischen Kernfunktionen der Supply Chain zu folgenden  Schwerpunkten: Innovation, Nachhaltigkeit, digitale Disruption sowie Kultur zur digitalen Transformation. Höhepunkt der EXCHAiNGE ist die Verleihung des Supply Chain Management Awards und des Smart Solution Awards 2019 am 27. November. Am Vortag (26.11.) präsentieren die Award-Finalisten ihre herausragenden Supply Chain Lösungen der Jury und den Teilnehmern.

„Innovationen für die Logistik“ ist das Hauptthema der Logistics Digital Conference, die am 28.11.2019 stattfindet. Dabei werden visionäre Leuchtturmprojekte für die Logistik sowie das Innovationsprogramm Logistik 2030 des Bundesministeriums für Verkehr und digitale Infrastruktur (BMVI) vorgestellt und diskutiert. Eine weitere Session beschäftigt sich mit den Logistikhelden, dem Image und der Berufswelt von morgen.

Redner und Keynotes

Hochkarätige Experten liefern spannende Insights auf der Hypermotion 2019 – beim Deutschen Mobilitätskongress, der smart mobility conference, der EXCHAiNGE und der Logistics Digital Conference und im Hypermotion-Lab

Redner unter anderem sind:

Dr. Katrin Dziekan, Fachgebietsleiterin Umwelt und Verkehr, Umweltbundesamt:
„Nachhaltiges Supply Chain Management“
Frauke Heistermann, Aufsichtsrätin und Vorsitzende Rat für Technologie Vorstandsmitglied Bundesvereinigung Logistik:
„Logistikhelden, Image und die Berufswelt von morgen – DIE W.M.“
Prof. Dr. Michael Henke, Institutsleiter, Bereich Unternehmenslogistik, Fraunhofer-Institut für Materialfluss und Logistik:
„Technologie & Innovation in der Supply Chain“
Stefan Hoogervorst, Director of Education and Research, PMI Production Management Institute:
„Interaktive Supply Chain Themenrunde“
Klaus Krumme, Geschäftsführung, Zentrum für Logistik & Verkehr (ZLV) der Universität Duisburg-Essen (UDE):
EXCHAiNGE: Eröffnung und „Nachhaltiges Supply Chain Management“
Prof. Dr. Paul Lukowicz, Lehrstuhlinhaber für KI an der TU Kaiserslautern, Wissenschaftlicher Direktor DFKI:
Podiumsdiskussion: „Cyborg – Das Zeitalter der Maschinen-Menschen hat begonnen“
Peter Lüttjohann, Referatsleiter Güterverkehr und Logistik, Bundesministerium für Verkehr und digitale Infrastruktur:
„Innovationsprogramm Logistik 2030“
Prof. Dr. Ing. Wolfgang Maaß, Wissenschaftlicher Direktor Deutsches Forschungszentrum Künstliche Intelligenz:
Podiumsdiskussion: „Cyborg – Das Zeitalter der Maschinen-Menschen hat begonnen“
Frank Müller, Leiter Hauptstadtbüro, Bundesverband eMobilität
„Alternative Mobilität in der Stadt“
Prof. Dr. Kai-Oliver Schocke, Direktor des Research Lab for Urban Transport ReLUT, Frankfurt University of Applied Sciences:
„Leuchtturmprojekte für die Logistik“

Alle Referenten und Themen finden Sie hier:
https://events.messefrankfurt.com/2019/hypermotion/de/People

Key Facts

Was: Hypermotion

Wann: 26.- 28.November 2019

Wo: Messe Frankfurt, Frankfurt am Main

Mehr Informationen unter www.hypermotion-frankfurt.com.

Design Thinking – Vom Innovationsmotor zum Kulturtransformator

Design Thinking, vor zehn Jahren noch völlig unbekannt in Deutschland, hat sich in den vergangenen Jahren einen festen Platz in der Topliga der agilen Frameworks erobert. Viele Unternehmen haben mittlerweile ihre Produkt- und Service-Innovationsrate dank der Umstellung auf Design-Thinking-Prozesse erheblich beschleunigt und vor allem viel über Ihre Kunden erfahren. Eine Reihe von Agenturen und Unternehmensberatungen haben in den letzten Jahren Design Thinking in ihren Methodenkoffer gepackt und verkaufen es als neuen agilen Prozess.

Aber damit nutzen sie nur einen Bruchteil des Potenzials. Unternehmen wie Bosch haben erkannt, dass Design Thinking mehr ist als eine Innovationsmethode und begreifen es als Kulturtransformator. Wenn Sie sich im Rahmen der digitalen Transformation fragen, ob Ihre Organisation richtig aufgestellt ist, ob die Potenziale Ihrer Mitarbeiter sich frei entfalten können, ob Ihre räumliche Ausstattung noch zeitgemäß ist und wie Ihre Arbeitsprozesse und letztlich Ihre gesamte Firmenkultur agiler gestaltet werden können, dann sollten Sie hier weiterlesen.

Was leistet Design Thinking?

Mit Design Thinking, wie es an der HPI School of Design Thinking in Potsdam entwickelt wurde, kann eine Organisation die Kulturentwicklung in Gang setzen, die parallel zur Einführung digitaler Technologien notwendig ist. Design Thinking entfaltet die Potenziale der Mitarbeiter und motiviert und befähigt zur Selbstorganisation, ausgehend von kleinen, heterogenen Gruppen.

Der Ansatz ist insbesondere in Phasen grundsätzlicher Neuorientierung, Strategieentwicklung, Produkt- und Service- innovation und bei der Lösung komplexer Fragestellung extrem hilfreich. Dabei schärft er den Blick aller auf drei kulturrele- vante Faktoren. Das konsequent menschenzentrierte Denken und Handeln im Design-Thinking-Modus führt nachhaltig zu einer ganzheitlichen, unternehmerisch verantwortlichen Sicht und bewirkt letztlich ein dynamisches Re-Design der Organisa- tion hin zu permanenter Veränderungsbereitschaft.Für inkrementelle Verbesserungen und Veränderungen eignen sich andere Ansätze besser.

Geschichtlicher Hintergrund

Die Ursprünge im Silicon Valley

IDEO, ein kalifornisches Design-Unternehmen, gegründetvon David Kelley, Mike Nutall und Bill Moggridge, hatte schon in den 1990er-Jahren mit Design Thinking die ersten Interaktionsprodukte wie die Apple-Mouse oder den Palm V für die Digitalindustrie entwickelt. Richtig populär wurde der Ansatz und die Begrifflichkeit aber erst durch die d.school, die David Kelley 2005 als erste akademische Design-Thinking-Einrich- tung an der Stanford University in Palo Alto startete. Hunderte von Absolventen und viele Gründungen von Start-ups trugen den Ansatz in die Welt und brachten die iterativen Arbeitsmethoden, welche Designer und Architekten ohnehin intuitiv verwenden, in die Medizin, den Maschinenbau und den Finanzsektor. Es wurde bald klar, dass der Ansatz nicht nur bei der Entwicklung von Produkten enorm hilfreich sein würde, auch Dienstleistungen ließen sich deutlich verbessern bezie- hungsweise neu erfinden.

Hasso Plattner, Mitgründer und langjähriger Vorstandsvorsitzender des deutschen Softwareherstellers SAP, hatte schon kurz nach dem Start der d.school in Stanford den Kontakt zu David Kelley gesucht und war von dem, was er in den Containerräumen auf dem Campus erlebte, völlig begeistert.

Studierende aus vielen Disziplinen arbeiteten gemeinsam in kleinen Teams an der Lösung komplexer Fragestellungen, benutzten jede Menge visueller Werkzeuge und hatten sich einen Teil der Arbeitsumgebung selbst zusammengezimmert. In diesem »Kindergarten für Erwachsene« fühlte sich Hasso Plattner sofort wohl und erahnte, dass die Energie, die hier freigesetzt wurde, auch für sein Unternehmen enorm förderlich sein könnte. Er wurde mit einem zweistelligen Millionenbetrag der erste und größte Stifter für die d.school und installierte kurze Zeit später das »Design Services Team« bei SAP, das sich schrittweise in den Entwicklungsprozess bei SAP einbrachte. Der Nutzer stand von nun an im Zentrum des Interesses und die Begriffe »User Centered Design«, »User Experience Design« und »Design Thinking« wurden nahezu synonym benutzt.

Ein Modus zieht um den Globus

Im Oktober 2007 nahm die School of Design Thinking am Potsdamer Hasso-Plattner-Institut bereits kurze Zeit später ihre Arbeit als Schwesterinstitut der d.school Stanford auf. 40 Studierende aus rund 30 Disziplinen und 20 Hochschulen ließen sich zusammen mit 16 Professoren und Assistenten auf dieses Abenteuer ein und nach kurzer Zeit war dieselbe außergewöhnliche Energie zu spüren wie in Stanford.

Es war nicht die kalifornische Sonne, das Silicon Valley oder der außergewöhnliche Stanford-Campus, es war derModus, der offenbar schlummernde Energiepotenziale – die intrinsische Motivation – freisetzte und magische Wirkung zeigte.

Der Modus des 21. Jahrhunderts setzt auf ein Miteinander und weniger auf ein Gegeneinander. Er trainiert neben dem Denken mit dem Kopf auch das Denken mit den Händen, gene- riert anfassbare Prototypen und bezieht den Nutzer möglichst früh ins Ausprobieren ein. Dieser Weg zu Innovationen schafft eine Atmosphäre der Offenheit sowie des Vertrauens und akzeptiert das Begehen von Fehlern als integralen Bestandteil des iterativen Schleifendrehens. Das Ergebnis sind letztlich Ideen, die überraschen und die Experten in Erstaunen versetzen.

Zu Beginn ahnte noch niemand, dass in Stanford aus den anfänglich 20 Studierenden einmal 600 würden, die jedes Jahr d.school-Programme absolvieren und erst recht ahnte niemand, welche Wirksamkeit Design Thinking in deutschen Industrieunternehmen entfalten würde. Schon früh war klar, dass auch in Potsdam neben dem studentischen Programm – welches mittlerweile von 240 Studierenden im Jahr absol- viert wird – ebenso Weiterbildungsformate für Berufstätige entwickelt werden sollten. Aber dass aus den anfänglich circa 20 Teilnehmern dieses Programms mittlerweile mehr als 3 000 im Jahr geworden sind, hätte auch Hasso Plattner nicht für möglich gehalten. Die Teilnehmer tragen seither nicht nur einen neuen Denk- und Arbeitsmodus in die Welt, sondern lernen auch, dass neues, Kollaboration förderndes Mobiliar nötig ist um, sie dabei zu unterstützen. Aus den acht Arbeitstischen und 20 Whiteboards, die zu Beginn im Jahr 2007 gemeinsam mit dem Berliner Unternehmen System 180 entwickelt wurden, ist inzwischen eine »Design Thinking Line« entstanden, die in hunderten von Unternehmen in ganz Europa Einzug gehalten hat.

Weltkarte mit den Design-Thinking-Zentren

2017 feierte die HPI School of Design Thinking in Potsdam mit dem d.confestival bereits das 10-jährige Bestehen und so modellieren Hochschulstandorte aus der ganzen Welt Innovationsprogramme nach dem Potsdamer Vorbild (2012 die Communication University of China in Peking, 2013 das Genovasi-Institut in Kuala Lumpur, 2014 das Open- Lab in Stockholm). Zwei Hochschulen in der Türkei sind im Jahr 2016 auf dem Weg zu Design-Thinking-Labs durch die politischen Wirren leider gebremst worden, aber die dritte offizielle HPI d.school wurde 2017 im südafrikanischen Kapstadt eröffnet. Ein HPI-Lab in New York City bildet vorerst den Abschluss der internationalen Expansion des Hasso-Plattner-Instituts. Die Global Design Thinking Alliance (GDTA), ebenfalls gestartet im Jahr 2017, zählt derzeit elf Bildungseinrichtungen auf fünf Kontinenten und in der von SAP, Philips und Nestlé initiierten Design-at-Business-Initia- tive finden sich über 100 Unternehmen aus der ganzen Welt zu regelmäßigen Meetups zusammen.

Das deutsche Bauhaus als Vorbild

Was genau lässt immer mehr Unternehmen und Organisa-tionen auf Design Thinking aufmerksam werden? Laut einer Studie der Unternehmensberatung Deloitte war Design Thinking bereits 2016 auf Platz fünf der Top 10 »Important Trends to Business«. Es ist der massive Veränderungsdruck, mit dem sich unsere Gesellschaft insbesondere durch digitale Transformationsprozesse konfrontiert sieht – dies verbunden mit steigender Komplexität, der nur noch mit einem komplexen Modus sinnvoll begegnet werden kann.

Die drei Kernelemente des Design Thinking

Komplexität hatten bereits vor hundert Jahren die Bau- haus-Gründer im Sinn, als sie die Brücken zwischen einzelnen Kreativ-Disziplinen bauten und Architekten mit Musikern, Bildhauern, Malern und Theaterleuten in einen Ausbildungs- kontext brachten. Für David Kelley war das deutsche Bauhaus die Inspiration zur d.school. »Aber der Winkel der Kreativ-Disziplinen reicht mit dem Blick auf die Komplexität heutiger Probleme nicht mehr aus, wir brauchen 360 Grad, wir brauchen die Kompetenz aller Disziplinen«, meinte er auf die Frage des Autors, was ihn zum radikalen Konzept d.school motiviert habe.

Ein Team aus Teams

Damit rückt auch schon das erste der drei Kernelemente des Design Thinking in den Fokus: divers zusammengesetzte Teams. Nicht auf den genialen Einzelerfinder, nicht auf die homogene Expertengruppe, sondern auf kleine Teams mit großer Vielfalt in den Bereichen Expertise, Gender, Kultur und Persönlichkeit setzt Design Thinking. Teamgrößen von vier bis sechs Personen haben sich hier als besonders wirkungsvoll erwiesen. Dies ist eine Größenordnung, die alle aus familiären Kontexten kennen und die den Vorteil hat, dass kein Teil- nehmer übermäßig lange dominieren oder sich wegducken kann. Jede Stimme ist wichtig und wird gehört. Ebenso ist die Selbstorganisationskraft einer solch kleinen Gruppe sehr hoch. Daher braucht es wenig Kontrolle. Trotzdem empfiehlt es sich für ein solches Team, immer einen betreuenden Coach einzusetzen. Dessen Aufgabe ist es nicht, das Team zu steu- ern, er hat vielmehr Timing-Kontrolle, Konfliktmanagement und Prozessnavigation im Fokus. Diese hohe Betreuungs- dichte ist notwendig, weil wir bis heute überhaupt nicht trai- niert sind, in kollaborativen Kontexten zu arbeiten.

Die Bildungsapparate Schule, Ausbildung und auch die Hochschule haben nach wie vor eine hochgradig kompetitive Ausrichtung. Einzelbewertung steht im Vordergrund, Wissens- erwerb steht vor Kompetenzerwerb und Projektarbeit ist eher die Ausnahme. Daher ist es gar nicht leicht, auch nicht für die aktuelle Studierendengeneration der »Digital Natives«, sich in einem Design-Thinking-Ambiente zurechtzufinden, sich auf andere Menschen auf gleicher Augenhöhe einzulassen und seine Eigenleistung in den Dienst der Gesamtaufgabe zu stel- len. Auch wenn es in der d.school keine Einzelbewertung mehr gibt – statt des IQ steht hier der WeQ im Vordergrund – und selbst die Teams nicht bewertet werden, ist das nicht leicht.

Es braucht eine gewisse Zeit, bis die trainierten Ellenbogen-Mechanismen heruntergefahren sind, weil begriffen wurde, dass der Konkurrenzdruck von den Schultern des Einzelnen auf die Schultern des gesamten Teams verlagert wurde. Im Idealfall arbeitet so nicht nur ein Team für sich allein, vielmehr arbeiten mehrere Teams an einer Fragestellung in einer offenen Arbeitsumgebung, die es erlaubt, dass man sich gegenseitig wahrnimmt und die Zwischenergebnisse teilt.
Dieser Modus nennt sich »Team of Teams«.

Der atmende Raum

Unterstützend wirksam ist der variable Raum, der das zweite Kernelement des Design Thinking darstellt. Dabei geht es um den Schritt weg vom klassischen Konferenzraum, in dem Zah- len und Buchstaben dominieren, hin zu einem Experimentier- raum, einem geschützten Raum des Scheiterns, in dem über einen vereinbarten Zeitraum hinweg alle möglichen verrückten Ideen nicht nur gedacht, sondern auch prototypisch auspro- biert werden können. Die Stanford d.school hatte schon früh begonnen, mit neuen räumlichen Konstellationen zu experimentieren und schnell war klar, dass für einen dynamischen Kreationsprozess ein hochflexibles Mobiliar vonnöten war, das es damals, auch bei den großen Büromöbelherstellern, noch nicht zu kaufen gab. Die Industriedesigner in Stanford behalfen sich mit selbst gestalteten und produzierten Möbeln. Im Kern ging es um Arbeitstische für vier bis sechs Personen. Steh- Arbeitstische sollten es sein, denn Stehen erhöht die Arbeits- dynamik, und auch Whiteboards benötigte man in großer Zahl. Alles sollte auf Rollen möglichst flexibel positionierbar sein – Teamräume oder Workspaces müssen schnell vergrößer- oder verkleinerbar sein, sie müssen sozusagen »atmen« können.

Die Whiteboards bilden einerseits mobile Wände, visuelle und akustische Trenner rund um ein Team, und liefern zum anderen die Basis für einen dreidimensionalen Informationsraum, den sich das Team durch permanentes Verschriftlichen und Visua- lisieren der Ideen selbst erschafft.

Zu den Workspaces gesellen sich noch drei weitere Areale, die für Design Thinking relevant sind:

> der Share-Space,

> der Make-Space und

> die Lounge zum Netzwerken.

Der Share-Space besteht in der Regel aus Sitzmöglichkeiten für alle Teilnehmer, einer Bühne oder Präsentationsfläche und einem Video-Projektor. Das ist der Ort, an dem sich die Teams regelmäßig gegenseitig kurz den Stand der Dinge präsen- tieren und Feedback von den Teilnehmern bekommen. Dieser Austausch ist wichtig, um die Brainpower aller Beteiligten, nicht nur des eigenen Teams, für die eigene Arbeit nutzbar zu machen. So entsteht ein »Team of Teams«.

Im Make-Space finden sich Werkzeuge und Materialien, mit denen die Teams erste Prototypen bauen können und so den Denkprozess quasi mit den Händen fortsetzen. Bei kurzenWorkshoplängen reichen hier Scheren, Schneidemesser, Kleber, Tacker, Haftnotizzettel, Papier, Pappen, Pfeifenreiniger, Knet- gummi und ein paar Legobausteine und -figuren. In Potsdam gibt es für elaborierte Prototypen Werkbänke mit voller Werk- zeugausstattung für Holz- und Metallarbeiten, Farbdrucker, Plotter, Lasercutter und 3-D-Drucker, Foto- und Videokameras und Schneideplätze sowie Ausrüstung für Augmented- und Virtual-Reality-Produktionen.

Die Lounge ist mit Sofas und Beistelltischen für den ent- spannten Austausch in den Pausen ausgestattet. Hier wird auch für Getränke und Snacks gesorgt. Diese Vielfalt an räum- lichen Konstellationen – heute in Unternehmen noch eher im separierten Experimentierlabor zu finden, wird zukünftig die gesamte Arbeitswelt nachhaltig verändern.

In sechs Schritten vom Problem- zum Lösungsraum

Das dritte Kernelement des Design Thinking ist die Arbeits- methodik, der iterative Prozess, der von Architekten und Designern abgeschaut wurde. Es sind im Wesentlichen sechs Phasen, die je nach Projektlänge mehrfach durchlaufen wer- den, um möglichst schnell zu brauchbaren Ergebnissen zu kommen.

Die ersten beiden Phasen, Verstehen und Beobachten, dienen der intensiven Befassung mit der vorliegenden Frage- stellung. Worum geht es, was und wer steht im Mittelpunkt des Interesses? Welche Erfahrungen sollen adressiert und verbessert werden? Wie kann ich möglichst viel über und von den Adressaten erfahren? Hier reicht es nicht, im Internet oder in Bibliotheken zu recherchieren und wissenschaftliche Studien zu konsultieren. So wurde beispielsweise an die HPI School of Design Thinking von der Berliner Gefängnisverwaltung die Frage herangetragen, ob es Sinn ergebe, Häftlingen, die kurz vor der Entlassung stehen, beschränkten Zugang zum Internet zu gewähren. Die Recherchen dazu fanden natürlich direkt im Gefängnis statt. Viele Gespräche mit Häftlingen, Justizvollzugsbeamten, Sozialarbeitern und der Gefängnis- leitung waren nötig, um sich ein umfassendes Bild von der Problemlage verschaffen und dann den dritten Schritt gehen zu können. Hier galt es, einen klaren Standpunkt zu definieren, den Point of View, der die Startrampe bietet für die Ideenfindung, den vierten Schritt im Design-Thinking-Prozess.

Dieser Schritt findet im Workspace statt. Dabei tragen die Teilnehmer mithilfe verschiedener Brainstorming-Methoden möglichst viele und möglichst wilde Ideen zusammen. So ent- stehen in kurzer Zeit schon einmal hunderte von Vorschlägen, die alle auf Klebezetteln auf dem Whiteboard landen und dann
sortiert und geclustert werden müssen. Im erwähnten Gefängnisprojekt hingen über 100 Ideen am Board und einige von diesen signalisierten, dass es gar nicht so sehr um das Internet ging, als vielmehr um Informationsflüsse im Gefängnisalltag allgemein.

Eine Handvoll der besten Ideen werden ausgewählt, um in der fünften Phase des Prozesses – dem Prototying – in ein begreifbares Modell umgesetzt zu werden. Ein Prototyp kann ein physisches Produkt sein, analog dem Architektur-Modell bei der Planung eines Gebäudes. Es kann aber auch eine gespielte Szene oder ein animiertes Video sein. Hier geht es noch nicht um einen vollfunktionalen Prototypen, vielmehr ist es hier wichtig, mit möglichst wenig Aufwand die Idee so vorzustel- len, dass sie anderen Menschen schnell in ihren Wesenszügen präsentiert werden kann.

Dies ist wichtig für den sechsten und letzten Schritt – das Testing. Der Prototyp wird den möglichen Nutzern präsentiert und man spielt durch, wie es wäre, wenn es dieses Produkt oder diese Dienstleistung schon geben würde. Die Rückkopp- lungen, die das Team aufgrund des Testlaufs erhält, bilden die Grundlage für ein erneutes Durchlaufen des Prozesses zur Optimierung der Idee.

Die Wirkung von Design Thinking: Agile Lern- und Arbeitskultur

Auch wenn die Beschreibung des dritten Kernelementes den meisten Raum einnimmt, müssen die beiden anderen mit der gleichen Relevanz behandelt werden. Und alle drei sind hochrele- vant für die Veränderungsprozesse, die Unternehmen und Orga- nisationen im Rahmen der digitalen Transformation durchlaufen. Wie arbeitet man zusammen, wo arbeiten Menschen und welche Prozesse nutzen sie dabei? Diese Fragen stellen sich in der digi- tal vernetzten Welt neu und müssen daher erneut beantwortet werden. Die Antworten, die Design Thinking bereithält, führen bei konsequenter Umsetzung zu einer agilen Arbeitskultur. Und damit unterscheidet sich Design Thinking von allen anderen agilen Frameworks: Es geht bei Design Thinking nicht nur um einen neuen methodischen Ansatz, es geht im Kern um die Entwicklung einer agilen Lern- und Arbeitskultur.

Dies wird deutlich, wenn man sich die in den vergangenen Jahren rasant angestiegene Zahl der Unternehmensworkshops am Hasso-Plattner-Institut anschaut. Hier steht immer weniger Produkt- oder Dienstleistungsinnovation im Vordergrund. Es geht den meisten Teilnehmern um nachhaltige systemische Änderun- gen in der Unternehmensorganisation, die mit Design Thinking ganzheitlich angegangen werden können.
Aber auch in der internationalen Bildungslandschaft halten zunehmend vernetzte Denk- und Handlungsweisen Einzug.

So treffen sich neben den Design Thinking Schools in Stanford und Potsdam auch in Sao Paulo, Paris, Stockholm, Kapstadt, Kuala Lumpur, Peking und Sydney Architekten, Informatiker, Mediziner, Juristen, Designer, Maschinenbauer, Psychologen, Betriebswirte und viele andere Disziplinen, um gemeinsam in kleinen gemischten Gruppen an der Lösung komplexer Fragestellungen zu arbeiten.


Fallbeispiel: Kulturwandel bei Bosch

Eines der spannendsten Beispiele ist derzeit das Unternehmen Bosch, mit circa 410 000 Mitarbeitern einer der größten Arbeitsgeber in Deutschland und weltweit bekannt für beste Ingenieurleistungen.

Elf Geschäftsführer verantworten 16 Geschäftsbereiche, darunter BSH Hausgeräte, Car Multimedia, Thermotechnology, Packaging Technology und Power Tools. Mit einigen seiner Bereiche ist Bosch welt- weit größter Anbieter: Bosch Power Tools ist ein weltweit führender Anbieter von Elektrowerkzeugen, und Automotive einer der größten Automobilzulieferer weltweit.

Die Führungsetage von Bosch mit dem Vorstandsvorsitzenden Volkmar Denner an der Spitze hat sich schon vor einigen Jahren den Kulturwandel als oberste Priorität gesetzt. »Während viele noch glauben, dass die Vernetzung ein rein technisches Thema ist, haben wir längst verstanden, dass sie mit einer tiefgreifenden Kulturver- änderung im Unternehmen einhergehen muss«, meinte er in einem Handelsblatt- Beitrag 2018. Und mit dieser Kulturver- änderung hat der Konzernvorstand schon früh begonnen.

Bereits 2011 rief Denner, der Bosch konsequent auf die vernetzte Welt ausrichtet, den Bereich User Experience ins Leben, der in den letzten Jahren von Geschäftsführungsmitglied Uwe Raschke aufgebaut wurde. Der 60-jäh- rige Familienvater, der vor über 30 Jah- ren als Trainee bei Bosch begann, ist seit 2008 Geschäftsführer von Bosch und verantwortet unter anderem den Unternehmensbereich Konsumgüter, zu dem Elektrowerkzeuge und Haushaltsgeräte gehören.

Zusammen mit seinen Leitungskollegen betreibt er seit einigen Jahren einen Erneuerungsprozess, wie er in großen Unternehmen noch selten anzutreffen ist. Es geht hier nicht nur um den forcierten globalen Wettbewerb, dem nur mit stetiger Produktinnovation und starken Investitionen in Forschung und Entwicklung begegnet werden kann. Hier wird auch sehr intensiv über Führungskultur, organisationalen Wandel und nachhaltige Vernetzung gesprochen. »Ich komme noch aus der Generation Befehl und Gehorsam«, so Raschke zum Autor in einem Gespräch während eines Führungskräfteworkshops, »aber wie kommen wir von dieser eher militärischen Organisationsform hin zu einer, die der neuen, vernetzten Welt entspricht, aber trotzdem noch große Organisationen führen lässt?« Wie ist es um den Raum für Abweichler im Unternehmen bestellt? Wie wird künftig mit Richtlinienkompetenz umgegangen? Und wie kann Freiwilligkeit die Arbeit stärker prägen? »Vieles, was wir, die Generation Befehl und Gehorsam, noch akzeptiert haben«, meint Raschke, »wird von den jungen Generationen weder gewollt noch akzeptiert. Wir brauchen eine andere Qualität von starken Führungskräften mit strategischer Kompetenz, Ausbildungskompetenz und Lust am Coaching, die aber auch viel besser loslassen können, als wir das gelernt haben.«

Bosch Power Tools hat über viele Jahre eine der höchsten Innovations- raten im Konzern. Das förmliche Sie hört man seit Langem nicht mehr, Krawatten sind seit vielen Jahren passé, wie auch der Rest von Bosch seit einiger Zeit die Krawattenpflicht abgeschafft hat. Nutzerzentrierte Designprozesse wurden initiiert und viele Mitarbeiter in Design-Thinking-Workshops geschult. Eine Reihe von Mitarbeitern ließ sich zu Design-Thinking-Coaches ausbilden und interne Schulungsprozesse wurden in Gang gesetzt.

Bonusmodelle auf dem Prüfstand

Und noch etwas anderes wurde in Angriff genommen, das sehr stark den Kulturwandel bei Bosch hin zu einer ver- netzten Denk- und Arbeitskultur bewegt hat: die Bonuszahlung. Am 1. Januar 2016 führte Bosch weltweit ein neues Bonusmodell ein und verzichtet seither bei Führungskräften auf die Incenti- vierung individuell vereinbarter Ziele – individuelle Zielvereinbarungen wurden insgesamt abgeschafft. Stattdessen erhalten die Führungskräfte einen Bonus, der den weltweiten Erfolg der Bosch-Gruppe und den Erfolg der Ein- heit, in der sie arbeiten, gleichermaßen berücksichtigt.

Damit war Bosch das erste große Unternehmen in Deutschland, das sich radikal abwendet von der individualisierten Wettbewerbskultur hin zu einer mehr auf intrinsische Motivation setzenden Kultur der Zusammenarbeit.

Cross-funktionale Teams in inspirierenden Arbeitsumgebungen

Aber da mit einem veränderten Incentivierungsmodell allein der Kulturwandel noch nicht vollzogen ist, wurden weitere wichtige Veränderungen angegangen, vorab im Bereich Powertools. Mitarbei- ter wurden gebeten, über ihre Arbeits- umgebungen nachzudenken und diese nach ihren Bedürfnissen umzugestalten. Dies ging einher mit der Frage, wie Arbeitsprozesse und Organisations- struktur in der Zukunft aussehen sollten. Auch hier gab es kein Top-down-Verfahren, sondern den Aufruf in den Bereich, gemeinsam mit dem Betriebsrat über nötige Veränderungen nachzudenken und diese vorzustellen.

Für diese Planungsphase wurde ein zeitlicher Freiraum gewährt und man begegnete sich im Design-Thinking- Modus.

Das Ergebnis: eine neue Organisationsstruktur, die sich wegbewegt vom tradierten Silo-Modell hin zu einem Modell mit kleinen, cross-funktionalen Teams, die für einen längeren Entwicklungszeitraum zusammenarbeiten. Kommt man heute nach Leinfelden bei Stuttgart zu Bosch Power Tools, so findet man in den Büroetagen eine Reihe von kleinen Teams in neu gestalteten, offenen Arbeitsum- gebungen mit Kreativräumen, Prototyping-Werkstätten, Kaffeeküchen und Ruheräumen. Interessanter Nebeneffekt der Neuorganisation: von den sieben Hierarchieebenen, die es vorher gab, sind noch fünf übrig geblieben. Zwei der Ebenen haben sich als hinderlich für die agile Umgebung herausgestellt und sind verschwunden. Die Mitarbeiter sind nicht weg, sie sind in neuen Funktionen in den Teams unterwegs.

Veränderung der Organisationsstruktur von Bosch (Grafik: Bosch)


Der kulturprägende Dreiklang

Das Beispiel Bosch zeigt eindrucksvoll, dass es nicht die Einführung einer neuen Methode war, die zu diesen massiven Änderungen geführt hat. Vielmehr war es das Zusammenspiel der drei Kernelemente des Design Thinking, das behutsam und rücksichtsvoll in Gang gesetzt werden muss, und das mittel- und langfristig zu einer deutlich kollegialeren Struktur bei gleichzeitiger Beschleunigung der Entwicklungs- und Entscheidungsprozesse führt. Es ist dieser kulturprägende Dreiklang des Design Thinking, der Antworten auf die drängenden Fragen liefert, die uns die digitalen Transformationsprozesse stellen.

Design Thinking ist vom Innovationsmotor zum Kulturtransformator geworden.

Autorensteckbrief

Professor Ulrich Weinberg leitet seit 2007 die School of Design Thinking am Hasso-Plattner-Institut in Potsdam.In seinem Buch »Network Thinking – Was kommt nach dem Brockhaus-Denken?« fordert er zu radikal neuem Denken in Bildung und Wirtschaft auf.

Literatur
Brown, T. (2009): Change by Design: How Design Thinking Transforms Organizations and Inspires Innovation. New York: Harper Collins Publishers.
Hüther, G. (2011): Was wir sind und was wir sein könnten. Ein neurobiologischer Mutmacher. Frankfurt: Fischer.
Kelley, D. und T. Kelley (2013): Creative Confidence. Unleas- hing the creative potential within us all. New York: Crown Business.
Laloux, F. (2014): Reinventing Organizations. A guide to crea- ting organizations inspired by the next stage in human con- sciousness. Brussels: Nelson Parker. Martin, R. L. (2009): The Design of Business. Why design thinking is the next competitive advantage. Boston: Harvard Business Review Press.
Meinel, C.; Weinberg, U. und T. Krohn (2014): Design Thinking Live. Hamburg: Murmann Publishers.
McChrystal, G. S.; Collins, T.; Silverman, D. und C. Fussell (2015): Team of teams: New rules of engagement for a complex world. New York: Penguin.
Mutius, B. von (Hrsg.) (2008): Die andere Intelligenz. Wie wir morgen denken werden. (3. Aufl.), Stuttgart: Klett-Cotta.
Spiegel, P. (2015): WeQ – more than IQ. Abschied von der Ich-Kultur. München: oekom.
Weinberg, U. (2015): Network Thinking. Was kommt nach dem Brockhaus-Denken? Murmann Publishers.

Aufmacherbild / Quelle / Lizenz
https://pixabay.com/de/illustrations/zahnr%C3%A4der-getriebe-arbeit-funktion-2020555/

ISBN 978-3-593-51100-9 Print

ISBN 978-3-593-44213-6 E-Book (PDF)

Das vorliegende Werk liegt als E-Book-Ausgabe im Open Access vor und ist unter der DOI 10.12907/978-3-593-44123-6 registriert.

Der Text dieser Publikation wird unter der Lizenz Creative Commons Namensnennung – Keine Bearbeitungen 4.0 International (CC BY-ND 4.0) veröffentlicht. Den vollständigen Lizenztext finden Sie unter: https://creativecommons.org/licenses/by-nd/4.0/legalcode.de

Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die den Rahmen der CC BY-ND 4.0 Lizenz überschreitet ist ohne Zustimmung des Verlags unzulässig. Das gilt insbesondere für die Bearbeitung und Übersetzungen des Werkes.

Trotz sorgfältiger inhaltlicher Kontrolle übernehmen wir keine Haftung für die Inhalte externer Links. Für den Inhalt der verlinkten Seiten sind ausschließlich deren Betreiber verantwortlich.

Copyright © 2019 Campus Verlag GmbH, Frankfurt am Main. Alle deutschsprachigen Rechte bei Campus Verlag GmbH, Frankfurt am Main.

Umschlaggestaltung: Oliver Schmitt

Umschlagmotive und Illustrationen: Dr. Franziska Schwarz, scivisto Innengestaltung und Satz: Oliver Schmitt

Gesetzt aus den Schriften Gotham, BrixSans und der Walls Korrektorat: Diana Schmid, Nürnberg

Druck und Bindung: Beltz Grafische Betriebe GmbH, Bad Langensalza Printed in Germany

www.campus.de

Fünf Beispiele, wie die Cloud das Drucken in Unternehmen optimieren kann

Autor: Hartmut Rottstedt, Geschäftsführer Deutschland, Österreich und Schweiz, Lexmark

„Cloud First“ lautet die Devise vieler Unternehmen auf ihrem Weg durch die digitale Transformation. Cloud-Infrastrukturen wachsen daher rasant. Das letzte Quartal 2018 schlossen Anbieter von Cloud-Infrastrukturen weltweit mit zweistelligem Wachstum ab (im Durchschnitt 28 Prozent) – so das Ergebnis der Analysten von IDC. Eine Entwicklung, die sich in den nächsten Jahren voraussichtlich fortsetzen wird. Konkret soll die Cloud-IT-Infrastruktur weiteren Untersuchungen von IDG zufolge mit einer jährlichen Wachstumsrate von 10,9 Prozent über einen Zeitraum von fünf Jahren ansteigen, und bis 2023 einen Wert von 99,9 Milliarden US-Dollar erreichen.

Dies ist ein Gastbeitrag von Hartmut Rottstedt, Geschäftsführer Deutschland, Österreich und Schweiz, Lexmark

Drucken ist und bleibt ein wesentlicher Bestandteil einer Unternehmens-IT. Mit dem Einzug der Cloud verändert sich allerdings die Art und Weise des Druckens. Für IT-Abteilungen bedeutet dies, dass sie Druckumgebungen fest in ihre digitale Strategie einbeziehen können und müssen. Denn die Vorteile liegen auf der Hand: Durch das Hosting der Druckinfrastruktur in der Cloud können Unternehmen ihre IT-Infrastruktur, ihren Arbeitsaufwand sowie ihre Kosten reduzieren und dabei gleichzeitig ein höheres Maß an Benutzerfreundlichkeit gewährleisten. Im Folgenden illustriere ich an fünf Beispielen, wie die Cloud das Drucken in Unternehmen verbessern kann:

1. Optimierte Einkaufs- und Akquisitionsmodelle

Da immer mehr Unternehmen ihre Daten und Anwendungen in die Cloud verlagern, wird die Beschaffung von IT-Produkten und -Technologien in Form von „as-a-Service“-Subscription-Modellen immer beliebter. Deloitte Global schätzt, dass Unternehmen bis zum Jahr 2022 die Hälfte ihres IT-Budgets für Subscription-Services ausgeben werden.

Anstatt Drucker und lokale Server zu beschaffen und diese zu warten, können Druckumgebungen nun vollständig in der Cloud verwaltet und über ein Subscription-Modell zur Verfügung gestellt werden. Kunden zahlen in diesem Modell nur für die Druckkapazität. Dies reduziert die Investitionskosten und Unternehmen können ihre Druckkapazität nach Bedarf skalieren. Ein solcher Ansatz erspart darüber hinaus auch Zeit und Kosten im Anschaffungsprozess.

2. Vereinfachtes IT-Management und voller Fokus auf Digitalisierung

Die Aus- und Belastung von IT-Teams ist kontinuierlich hoch. Spiceworks zufolge verbringen IT-Teams derzeit den größten Teil ihrer Arbeit immer noch mit der Bereitstellung oder Wartung von Hardware und Netzwerken. Durch die Verlagerung von Drucklösungen in die Cloud ergeben sich einige Entlastungen für das IT-Management: Da die Drucker gestellt werden und im Besitz des CPIaaS-Anbieters verbleiben, müssen sich Unternehmen nicht mehr selbst um die Support-Infrastruktur, wie lokale Druckserver, Treiber und Nutzerverwaltung, kümmern.

IT-Mitarbeiter können sich durch diese Entlastung damit voll und ganz auf die Digitalisierung im eigenen Unternehmen konzentrieren. Großes Augenmerk sollte auch auf die Entwicklung ausgeklügelter Sicherheitsvorkehrungen, um der zunehmenden Gefahr von Cyberattacken begegnen zu können, gelegt werden sowie auf die Recherche innovativer neuer Produkte, Lösungen und Apps.

3. Erhöhte Sicherheit

Durch den Wegfall von Druckservern reduziert sich die Anzahl physischer IT Access Points. Die Technologie für die Druck-Authentifizierung steuert den Zugriff und senkt somit das Risiko, dass sensible Informationen in falsche Hände gelangen. Anstatt Dokumente über einen Druckserver an ein bestimmtes Druckgerät zu senden, werden Dokumente in die Cloud übertragen, wo sie gehalten werden, bis sich ein Nutzer am Drucker authentifiziert. Durchdachte „As-a-service“-Lösungen für die Druckinfrastruktur sind in der Regel standardmäßig mit einer fortschrittlichen Authentifizierungstechnologie ausgestattet. Diese stellt sicher, dass Nutzer nur über einen Benutzernamen und ein Passwort oder eine Smartcard auf das Gerät zugreifen können. Damit wird verhindert, dass eine nicht-autorisierte Person ein Dokument entnimmt. Auch Netzwerkordner und Anwendungen werden so vor unbefugtem Zugriff geschützt.

Quocirca-Umfragedaten zeigen, dass 44 Prozent der Unternehmen mit einer zwar verwalteten, aber Hersteller-gemischten Umgebung bereits mehr als einmal einen druckbezogenen Datenverlust zu verzeichnen hatten. Das bedeutet, dass Unternehmen, die Cloud-Print-Lösungen implementieren, in der Regel von einer brandneuen Palette von Geräten eines einzigen Herstellers profitieren. Denn so wird die die Druckerflotte vereinheitlicht und trägt zu einem einfacheren Management und einer höheren Sicherheit bei.

4. Maximierte Betriebszeit und Benutzerfreundlichkeit

Internet-of-Things- (IoT-) Tools, wie Predictive Services, oder eine automatisierte Nachbestellung von Verbrauchsmaterialien maximieren die Laufzeit der Geräte. Probleme können erkannt und behoben werden, noch ehe etwaige Störungen auftreten. Nutzer profitieren auf diese Weise von einer gleichbleibend hohen Verfügbarkeit der Drucker. Der IoT-Charakter der via Cloud verwalteten Druckinfrastruktur bietet zusätzliche mobile Funktionen – beispielsweise für Anwender, die sich innerhalb eines Unternehmens zwischen verschiedenen Standorten bewegen und mobiles Drucken nutzen.

5. Standortübergreifende Einblicke in Perfomance und Nutzung

Echtzeitdaten über die Nutzung, das Gerät, die gesamte Flotte und Service Level Agreements (SLAs) bieten dem IT-Management einen vollständigen und standortübergreifenden Einblick über die gesamte Druckinfrastruktur im Unternehmen. IT-Abteilungen können auf dieser Grundlage Möglichkeiten zur Produktivitätssteigerung erkennen, da sie präzise Details zur Gerätenutzung und zum Kosteneinsparungspotenzial erhalten. Langfristig bedeutet das eine im Ergebnis höhere Produktivität der einzelnen Nutzer sowie eine gesteigerte betriebliche Effizienz in allen Druckinfrastrukturen.

Fazit

IT-Abteilungen weltweit suchen nach Möglichkeiten, den Verwaltungsaufwand in der IT zu reduzieren – sowohl aus Kosten- als auch aus Betriebsgründen. Obwohl die Entscheidung zwischen Investitions- und Betriebskostenmodellen im Hinblick auf die Beschaffung von IT keine neue Entwicklung darstellt, ist der Einkauf von IT durch operative Modelle in der Cloud heute einfacher als je zuvor. In letzter Konsequenz bedeutet dies, dass sich die Art und Weise, wie Produkte und Dienstleistungen genutzt werden, verändert – vor allem hin zu neuen „Product-as-a-Service“-Geschäftsmodellen, die sich auf zuverlässige Ergebnisse mit vorhersehbaren SLAs zu angemessenen Kosten stützen.

Zusammenfassend lässt sich daher feststellen, dass Lösungen wie „Cloud Print Infrastructure as-a-Service“ dazu beizutragen, die hohen Ziele von IT-Organisationen weltweit verlässlich zu erfüllen, so dass diese sich verstärkt auf das Vorantreiben der Digitalisierung fokussieren können.

Weitere Informationen unter:
https://www.lexmark.com/de_de/services/managed-print-services.html

Bildquelle / Lizenz: Lexmark

Future of Work Initiative gegründet

Anlässlich der Messe Zukunft Personal Europe haben der Veranstalter und führende Vertreter der Unternehmen Design Offices, Detecon, Haufe, IBM und TriCAT die Gründung der „Future of Work Initiative“ bekannt gegeben. Ziel der Initiative ist es, praxisnahe Handlungsanweisungen mit einem realistischen Blick zu entwickeln und im Herbst 2020 als Manifest vorzustellen.

„Über Future of Work wird viel gesprochen und geschrieben. Die Lücke, die wir schließen wollen, ist der realistische Blick auf das Konzept und die Vermittlung konkreter Handlungsempfehlungen, insbesondere vor dem Hintergrund der sich abkühlenden wirtschaftlichen Gesamtlage“, erläutert Ralf Hocke, Mitgründer und aktuell Sprecher der Initiative sowie CEO von spring Messe Management, bei der offiziellen Gründung auf der Zukunft Personal Europe im Beisein von Bundesarbeitsminister Hubertus Heil.

„Die Initiatoren teilen die Überzeugung, dass die Umsetzung von Future of Work einen wesentlichen Beitrag zur Zukunftssicherung von Unternehmen darstellt, die in einer komplexen und unsicheren Welt immer schneller auf sich wandelnde Kundenbedürfnisse reagieren müssen“, so Hocke weiter. Jedes Unternehmen und jeder Arbeitsplatz sei von der Transformation betroffen. Umso wichtiger seien eine partizipative Führungskultur sowie die digitale Employability, für die die Qualifizierung der Mitarbeiterinnen und Mitarbeiter elementar sei. Zugleich betonte Hocke, dass die Antwort dabei für jedes Unternehmen individuell sei.

Bundesarbeitsminister Hubertus Heil begrüßte daher insbesondere den Ansatz der Initiative, wissenschaftliche Erkenntnisse mit unternehmerischer Praxis zu verbinden: „Die Gestaltung der Arbeitswelt ist eine Gemeinschaftsaufgabe für Politik, Wirtschaft, Wissenschaft und Gesellschaft, die mit vielen Chancen, aber auch kritischen Fragestellungen einhergeht. Beides gilt es, mutig und engagiert zu diskutieren und in praktische Handlungsoptionen einfließen zu lassen“, so Heil.

Untersuchung zur realistischen Betrachtung von Future of Work

Als erstes Projekt hat die Initiative eine qualitative Untersuchung beauftragt, die die Bedeutung von Future of Work vor dem Hintergrund eines sich abzeichnenden wirtschaftlichen Abschwungs beleuchtet. Auf Basis von zehn Interviews mit Experten aus der HR Szene resümiert Prof. Stephan Fischer, Studiendekan Human Resources Management und Direktor des Instituts für Personalforschung an der Hochschule Pforzheim, ein Kernergebnis: „Das Zurückgehen zu klassischen Modellen und Strukturen wird in einer wirtschaftlichen Krise nicht erfolgreich sein. Stattdessen wird das Gesamtkonzept der Future of Work unter Berücksichtigung verschiedener Bedingungen in Zeiten wirtschaftlichen Abschwungs an Relevanz gewinnen.“ Ob sich Unternehmen erfolgreich auf Future of Work einstellen können, hänge entscheidend von der Führungs- und Unternehmenskultur ab, ergänzte Prof. Fischer: „Besonders Modelle, die ein Miteinander auf Augenhöhe propagieren, werden hier erfolgreich sein.“

Entwicklung eines konkreten Manifests zur Umsetzung von Future of Work

Neben der wissenschaftlichen Untersuchung haben die Gründungsmitglieder zehn Thesen mit praxisnahen Handlungsanweisungen zur Umsetzung von Future of Work entworfen, die in den nächsten zwölf Monaten in verschiedenen interaktiven Formaten unter anderem auf der Konferenz Digital Mind Change (24. Oktober 2019, BMW Welt München) und der Zukunft Personal Series in Hamburg, Stuttgart und Köln diskutiert werden.

Weitere Informationen unter:
https://newmanagement.haufe.de/themen/future-of-work