Die Zukunft der Mobilität

Ein Gastbeitrag von Martin Gruber, Managing Director – Central Europe, Avis Budget Group

Das Thema Mobilität ändert sich in Deutschland momentan grundlegend und sicher geglaubte Einstellungen und Gewohnheiten geraten ins Wanken: Bis vor noch nicht allzu langer Zeit war der Besitz eines eigenen Autos so gut wie selbstverständlich und der Gedanke, ein Auto mit anderen zu teilen, kam kaum jemanden in den Sinn.

Heute dagegen ist gerade in urbanen Regionen ein eigenes Auto oft nicht mehr die Regel: Car Sharing und Mietwagen werden immer beliebter und Fahrrad und E-Roller sind zu echten Alternativen im Mobilitätsmix geworden, insbesondere für die «letzte Meile» der Reise. Kurz gesagt, die Reisenden haben eine veränderte und differenzierte Sichtweise zu Fragen rund um Mobilität und suchen nach alternativen Lösungen für ein effizienteres und stressfreies Verkehrserlebnis.

Dies merken wir als Autovermietung seit einiger Zeit ganz konkret am Buchungsverhalten unserer Kunden: Wir verzeichnen vor allem in Großstädten* einen deutlichen Anstieg der Autovermietungen von Privatleuten an Wochenenden und Feiertagen. Unsere Daten zeigen, dass sich die Stadtbewohner zunehmend für Mietwagen entscheiden, wenn sie Ziele erkunden und dabei gleichzeitig von der größeren Freiheit profitieren möchten, die ihnen ein Mietwagen bietet. Zum Beispiel Ziele, die sie mit öffentlichen Verkehrsmitteln nicht erreichen können oder die Möglichkeit zu haben, egal wann dorthin zu fahren, wohin sie möchten.

Martin Gruber, Managing Director – Central Europe, Avis Budget Group (Bildquelle / Lizenz: Avis Budget Group)

Die Vermietungsbranche ist die treibende Kraft für die Zukunft der Mobilität, und was wir heute sehen, ist erst der Anfang. In Zukunft wird es viel mehr vernetzte Autos und Smart Cities geben. Außerdem sehen die Menschen Mobilität zusehends als Dienstleistung, um sie auf die bequemste, stressfreieste und effizienteste Weise von A nach B zu bringen. Die Autovermietung spielt in dieser Zukunft eine wichtige Rolle und wir arbeiten kontinuierlich an der Weiterentwicklung von Avis Deutschland von einem klassischen Autovermieter hin zu einem führenden Mobilitätsdienstleister.

Avis Deutschland steht bei dieser Veränderung in vorderster Reihe. Dies ist bereits heute zu sehen: von der kürzlich verbesserten Avis App mit neuen Funktionalitäten über Mobilitätskooperationen wie die unlängst geschlossene Partnerschaft mit Ford bis hin zu einer umfassenden Digitalisierung, die wir dank spezialisierter Partnerschaften und vernetzter Fahrzeuge verwirklichen können. Wir bei Avis Deutschland gehen davon aus, dass die Mobilität zukünftig vollständig vernetzt, integriert und auf Abruf als Service verfügbar sein wird.

Dazu ergreift Avis Deutschland eine Reihe von Maßnahmen, um sicherzustellen, dass wir die gegenwärtigen und zukünftigen Bedürfnisse unserer Kunden erfüllen:

Besonders im Hinblick auf die wachsende Popularität der so genannten «Mikromobilität» und insbesondere für diejenigen, die ein Transportmittel für die «letzte Meile» ihrer Reise suchen, hat Avis Deutschland eine Partnerschaft mit dem führenden Bike-Sharing-Anbieter nextbike geschlossen: Kunden können ihr Fahrzeug zum Beispiel an ausgewählten Avis Mietstationen abgeben und haben die Möglichkeit, bei Bedarf direkt an der Station ein nextbike-Fahrrad für ihre Weiterreise zu nutzen. Das heißt, ein optimierter und vernetzter Mobilitätsservice, um von A nach B zu gelangen.

Avis Deutschland arbeitet auch daran, seine Flotte zu vernetzen und innovative technologische Lösungen anzubieten, die den sich ändernden Mobilitätsbedürfnissen gerecht werden. Mit der Avis App können Kunden beispielsweise jeden Aspekt der Anmietung über ihr Smartphone steuern: zum Beispiel Änderung oder Upgrade des gewünschten Mietwagens, Verlängerung der Buchung oder Informationen zur nächstgelegenen Tankstelle oder Parkmöglichkeit. Avis Preferred, das kostenfreie Treueprogramm, bietet seinen Mitgliedern eine noch größere Auswahl an Funktionen in der App, wie die Auswahl des gewünschten Mietwagens nach Marke und Modell sowie die Auswahl aller Add-ons. An ausgewählten Mietstationen können die Mitglieder die Mietstation sogar komplett umgehen und direkt zum Fahrzeug gelangen.
Dank der zunehmenden Vernetzung der globalen Flotte kann Avis Deutschland seinen Kunden einfacheren und schnelleren Zugang zu den Fahrzeugen ermöglichen. Nicht zuletzt liefert eine vernetzte Flotte Echtzeitinformationen, die dazu beitragen, Prozesse zu optimieren, individuelle Kundenbedürfnisse umzusetzen und sogar Daten wie Parksituation oder Straßenverhältnisse zu generieren und so zur Entwicklung von Smart Cities beizutragen.

Avis Deutschland ist auf dem besten Weg, ein umfassender Mobilitätsdienstleister zu werden und konzentriert sich dabei darauf, Mobilität dort anzubieten, wo und wann sie gebraucht wird.

* gemäß der internen Buchungszahlen von Avis Deutschland

Weitere Informationen unter:
http://www.avis.de/

Bildquelle / Lizenz Aufmacher: Photo by Aleksejs Bergmanis from Pexels

BaFin & Cloud: So geht das Zusammenspiel

Ein Gastbeitrag von Andreas Bachmann, Adacor

Der Schritt in die Cloud ist für Banken aufgrund regulatorischer Anforderungen komplexer als für FinTechs oder Unternehmen anderer Branchen. Bei der Frage, welche Prozesse man als Bank in die Cloud auslagern kann, müssen diverse Compliance-Richtlinien der BaFin erfüllt werden. Wenn IT-Manager von Finanzinstituten Ressourcen in die Cloud zu externen Hosting-Dienstleistern auslagern wollen, dann kommt mit BAIT, MaRisk, MaComp oder C5 ein ganzer Schwung an relativ neuen Compliance-Richtlinien auf sie zu.
In vielen Artikeln kann man daher lesen: Die Cloud ist für Banken ein schwieriges Thema. Zugegeben, einfach ist es nicht. Welche Hürden zu nehmen sind, wie man das Thema Managed Cloud Hosting mit einem externen Partner erfolgreich umsetzen kann und ob sich das Ganze lohnt, zeigt der folgende Beitrag.

Ohne Compliance geht nichts

Andreas Bachmann ist CIO und Mitgründer der Adacor Hosting GmbH

Natürlich würden die Banken am liebsten frei entscheiden, welche Services sie in die Cloud auslagern. Im Gegensatz zu unregulierten Branchen ist das Banken nicht erlaubt, denn das Auslagern an einen Cloud-Provider fällt immer zwingend unter die BAIT (Bankaufsichtlichen Anforderungen an die IT) der BaFin. Die Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) beaufsichtigt und kontrolliert im Rahmen der Finanzaufsicht alle Bereiche des Finanzwesens in Deutschland. Und dazu gehört auch das Auslagern von Daten und vor allem Anwendungen in die Cloud.

Der BaFin und ihren Compliance-Vorgaben geht es darum, einen Rahmen zu schaffen, der sicherstellt, dass die IT sich in einem sicheren Umfeld bewegt und Banken nicht kollabieren. Am Ende ist das alles unter der Brille des Risikomanagements zu betrachten und die BaFin garantiert dieses Risikomanagement. Man kann die BaFin und ihre Vorgaben eigentlich nur begrüßen, denn sie sichert die Banken, die Endkunden und damit auch die Gesellschaft ab.

Diese 3 Regeln gelten

Im Wesentlichen sind es drei BaFin-Richtlinien, die Compliance sicherstellen: BAIT, MaRISK und MaComp.

  • BAIT: Die „Bankaufsichtliche Anforderungen an die IT“ (BAIT) regeln unter anderem Themen wie IT-Sicherheit, Datensicherung und Anwendungsentwicklung. BAIT formuliert einen Rahmen für die technisch-organisatorische Ausstattung der Institute – insbesondere für das Management der IT-Ressourcen und für das IT-Risikomanagement.
  • MaRisk: Mit den Mindestanforderungen an das Risikomanagement (MaRisk) werden Anforderungen an die Umsetzung von IT-Sicherheit definiert. Vor allem in Bezug auf das Risikomanagement bei Banken. Sie konkretisieren den § 25a KWG und sind die Umsetzung der qualitativen Anforderungen aus Basel II bzw. Basel III an das Risikocontrolling von Banken.
  • MaComp: Durch die Mindestanforderungen an die Compliance-Funktion (MaComp) erhalten Finanzinstitute Orientierung bei der praktischen Umsetzung der Verhaltens-, Organisations- und Transparenzpflichten.

Ergänzt werden diese Vorgaben durch den Anforderungskatalog Cloud Computing (C5) des BSI in dem festgelegt wird, welche Anforderungen Cloud-Anbieter erfüllen müssen. Der Katalog ist in 17 thematische Bereiche unterteilt und basiert auf anerkannten Sicherheitsstandards wie z.B. ISO/IEC27001. Neben C5 sind seit kurzem auch die Empfehlungen der EBA bei der Nutzung von Cloud-Diensten zu beachten.

Welche Cloud und welcher Provider?

Will eine Bank nun Services in die Cloud auslagern, dann muss geklärt werden, welche Art der Cloud man wählt und mit wem man das Ganze realisiert.
Bei der Art der Cloud ist es zu 90% immer eine Private Cloud. In einer solchen lassen sich die BaFin-Vorgaben am besten abbilden, weil man die Kontrolle hat. Natürlich kann bestimmte Services auch innerhalb einer Shared-Plattform (Hybrid Cloud) umsetzen, jedoch wird das Ganze mit Sicht auf Abstimmungen wesentlich aufwändiger. Allerdings muss man da etwas relativieren, denn es gibt ja nicht DIE Hybrid Cloud. Hybrid heißt ja “nur”: Ich benutze verschiedene Cloud-Modelle für verschiedene Workloads.

Bei der Suche nach einem Dienstleister für Managed Cloud Hosting sollten Banken neben Kosten vor allem diese drei Aspekte achten: SLA, fachliche Kompetenz und natürlich Einhaltung der Compliance-Richtlinien.

  • SLA: Managed Cloud Hosting ist in erster Linie eine Vertrauenssache. Denn wer seine IT-Infastruktur von einem Dienstleister betreiben lässt, will umfangreiche Garantien. Kundenansprüche werden daher in Service Level Agreements (SLA) geregelt.
  • Kompetenz: Jeder Hosting-Anbieter wird heute über gutes Know-how verfügen, sonst könnte er nicht existieren. Beim Thema Banking in der Cloud muss man etwas hinter die Kulissen schauen. Ein Beispiel zeigt warum: Viele moderne Bestandsführungssysteme setzen z.B. auf Oracle als Datenbank. Ich brauche also einen Provider mit Mitarbeitern, die Know-how mit Enterprise-Technologie und dem Oracle-Umfeld haben, dies ist etwas ganz anderes als das “alltägliche” MySQL und PHP.
  • Compliance: Da die Cloud extern gehostet wird, obliegt dem Hosting-Partner ein großer Teil der Verantwortung für die Einhaltung und Umsetzung der BaFin-Richtlinien. Es sollte sich daher um einen Partner handeln, der nachgewiesene Erfahrung in diesem Umfeld hat und bereits Bank-Projekte in der Cloud realisiert hat. Vor allem sollte er über ein eigenes Compliance-Team verfügen, dass sich dediziert um die Themen BAIT, MaRisk, MaComp & Co. kümmert. Nicht jeder Anbieter hat dies, denn es ist personalintensiv und teuer. Bei Adacor befassen sich z.B. mittlerweile 5 von 75 Mitarbeiter/innen ausschließlich mit dem Thema Compliance.

BaFin-konformes Cloud Hosting lohnt sich

Cloud- und Serverinfrastrukturen für Banken, Fintechs und Versicherungen bergen besondere Herausforderungen. Wenn man als Bank einen externen Cloud-Partner wählt, dessen Managed Cloud und Hosting Services neben den hohen Anforderungen an Sicherheit, Performance und Verfügbarkeit auch die aufsichtsrechtlichen Anforderungen von Bafin und EBA erfüllt, dann steht einer erfolgreichen Cloud-Nutzung nicht viel im Weg.

Andreas Bachmann erläutert, wie Banken rechtssicher in die Cloud auslagern können.

Adacor hat sich frühzeitig auf Compliance-lastige Services spezialisiert und wir meinen aufgrund unserer Erfahrungen: Managed Cloud Hosting ist für Banken auch und gerade unter Einhaltung der bestehenden Compliance-Vorgaben machbar. Das dies in der Praxis funktioniert zeigen unsere Digitalisierungsprojekte bei Banken und Finanzdienstleistern wie GLS Bank, TEBA Bank oder der Ergo Versicherung. Zusammengefasst lässt sich sagen: BaFin-konformes Managed Cloud Hosting ist keine unüberwindbare Hürde, vor der sich Banken fürchten müssten.

Praxisbeispiel Umsetzung Compliance Vorgabe

Wie die Umsetzung einer Compliance-Vorgabe aussieht, kann man gut am Beispiel Backup verdeutlichen. Die BaFin gibt beispielsweise vor, dass Banken ein angemessenes Datensicherungskonzept für Backups haben müssen und dieses Backup-Konzept gewisse Risiko-Betrachtungsweisen berücksichtigt. Allerdings definiert die BaFin keine technischen Aspekte dafür. Sie definiert keine Data Retention Policies, sagt also nicht, wie und wie lange Daten für die betrieblichen Prozesse und für gesetzliche und sonstige Vorschriften gespeichert werden sollen. Sie gibt auch nicht vor, wie schnell der Wiederherstellungszeitraum sein muss.

All dies müssen Bank und Hosting-Partner als Konzept selber verfassen und dieses mit anderen Unterlagen wie dem BAIT-Konzept bei der BaFin zur Prüfung einreichen. Bei der Erstellung dieser Konzepte arbeiten Bank und Hosting-Anbieter also eng zusammen. In so einem Konzept kann z.B. stehen, dass Backups täglich gemacht und die gesicherten Daten auf bestimmten Backup-Medien in gesicherten Räumen gelagert werden und nur ausgewählte Personen mit entsprechender Schulung und Sicherheitsstatus darauf Zugriff haben. Der Soll-Ist-Vergleich wird regelmäßig von drei Stellen durchgeführt: der internen Revision des Hosting-Partners, der internen Revision der Bank und von den externen Wirtschaftsprüfern.

Auslagern geht nur mit Vertrag

Geht ein Automobilhersteller in die Cloud, so kann er autark entscheiden, mit wem er zusammenarbeitet. Im Bankenumfeld sieht die Sachlage etwas anders aus und typische Standardverträge sind nicht ausreichend. Wenn Banken die Auslagerung von wesentlichen Diensten an einen Cloud-Anbieter planen, so müssen sie dies gemäß Zahlungsdiensteaufsichtsgesetzes (ZAG) den zuständigen Aufsichtsbehörden anzeigen.
Denn einerseits werden betriebliche, personen- beziehungsweise kundenbezogene Daten vom geschützten Unternehmensraum (dem Rechenzentrum der Bank) in öffentlich zugängliche Netze und Systeme ausgelagert. Wie diese Daten genau zu handhaben sind, regelt eine Vereinbarung zur Auftragsdatenverarbeitung (ADV), deren genauen Inhalte im Bundesdatenschutzgesetz (BDSG) verankert sind.
Andererseits muss der Hosting-Partner sicherstellen, dass alle wesentlichen Compliance-Richtlinien eingehalten werden. Die BaFin muss wissen, ob und wie BAIT, MaRsik und MaComp in der Cloud eingehalten werden sollen. All dies muss daher in einem umfassenden Vertrag stehen, der bei der BaFin einzureichen ist. Viele Banken lassen sich unserer Erfahrung nach diesen Vertrag sogar von der BaFin abzeichnen, um auf der sicheren Seite zu stehen.

Was Banken alles auslagern dürfen

Kann eine Bank alles auslagern oder müssen bestimmte Dinge im Rechenzentrum der Bank verbleiben? Das Interessante ist, dass trotz aller Compliance-Vorgaben vieles erlaubt ist. IT-seitig darf ich als Bank wirklich ALLES auslagern, da gibt es keine Beschränkungen. Man kann als Bank sogar eine Komplett-Auslagerung durchführen, so dass ich gar keine eigenen IT-Systeme mehr habe. Das ist genau das, was StartUps wie N26 machen, die vom Reißbrett aus mit Null Altlasten starten und sich dann sekundengenau in der externen Cloud das zurechtschneidern, was sie gerade für ihre Services benötigen.

Man kann sogar noch einen Schritt weiter gehen: So wie ein eCommerce-Anbieter heute keinen eigenen Shop mehr programmieren muss; er sucht sich eine Shop-Lösung aus und befüllt diese und passt sie seinen Bedürfnissen an. Genau das gibt es mittlerweile auch im Banking. Die Solaris-Bank bietet “Banking as a Plattform” an – d.h. ich kann Bank ohne Banklizenz werden. Ein gutes Beispiel dafür ist “Tomorrow”, die nur eine GmbH mit einer interessanten Idee für eine moderne Bank sind und sich alles bei der Solaris-Bank einkaufen. Und all das ist 100% BaFin-konform.

Diese Möglichkeiten machen deutlich, dass die Compliance-Richtlinien der BaFin so einschränkend nicht sind. Was ich als Bank aber natürlich nicht auslagern darf sind Funktionen wie Risikomanagement und die Einhaltung der Compliance.

Andreas Bachmann ist CIO und Mitgründer der Adacor Hosting GmbH. Als Geschäftsführer verantwortet er u.a. die Bereiche Marketing und Compliance. Mit Niederlassungen in Essen und Offenbach hat sich Adacor auf Managed Cloud Hosting für digitales Business spezialisiert. Adacor wurde mehrfach für die besondere Arbeitsplatzkultur und die innovativen Entwicklungen im Unternehmen ausgezeichnet.

Zeitalter des „Digitalen Reflexes“

Neuer App Attention Index: Das Zeitalter des „Digitalen Reflexes“
Anwendungstreue ist die neue Markentreue: Verbraucher erwarten eine einwandfreie digitale Customer Experience

AppDynamics, ein Cisco-Unternehmen und der weltweit größte und am schnellsten wachsende APM-Anbieter, untersucht in seinem aktuellen App Attention Index den so genannten „Digitalen Reflex“ von Konsumenten. Damit ist eine fundamentale Veränderung zu einer unbewussteren Nutzung von digitalen Diensten und Anwendungen gemeint.

Die globale Studie untersucht, inwieweit Verbraucher von Anwendungen und digitalen Diensten abhängig sind und wie sich dies auf ihre Erwartungen an Unternehmen und Marken auswirkt. Sie stellt vor allem eine zunehmende Intoleranz gegenüber Performance-Problemen fest. Verliert heutzutage eine Anwendung Nutzer, verliert auch eine Marke Kunden. Es gilt: Anwendungstreue ist die neue Markentreue. Dem müssen Unternehmen Rechnung tragen, um relevant und wettbewerbsfähig zu bleiben.

Wachsende Abhängigkeit von Anwendungen und digitalen Diensten

Moderne Technologien haben die Art und Weise, wie wir leben, arbeiten und spielen, grundlegend verändert. Digitale Dienste sind heute ein fester Bestandteil unseres Alltags. Dabei sind sich viele Verbraucher gar nicht bewusst, wie sich ihre Nutzung solcher digitalen Dienste entwickelt hat. Im Durchschnitt schätzen die Befragten der AppDynamics Untersuchung, dass sie täglich sieben digitale Dienste nutzen. In Wirklichkeit sind es jedoch mehr als 30. Immerhin 68 Prozent sind sich darüber im Klaren, dass sie viel mehr digitale Dienste nutzen als sie bewusst wahrnehmen und schätzen deren positive Auswirkungen auf ihr tägliches Leben.

  • 70 Prozent sind überzeugt, dass digitale Dienste ihnen helfen, Stress zu reduzieren.
  • 68 Prozent sind der Meinung, dass digitale Dienste ihre Produktivität zu Hause und am Arbeitsplatz verbessert haben – gegenüber 43 Prozent im Jahr 2017 ein deutlicher Anstieg.

Das Zeitalter des „Digitalen Reflexes“

Digitale Dienste haben sich längst zu einem unbewussten Bestandteil des menschlichen Verhaltens entwickelt – einem „Digitalen Reflex“. Während Verbraucher früher eine bewusste Entscheidung getroffen haben, einen digitalen Dienst einzusetzen, um etwas zu erledigen, geschieht das heute häufig spontan. Die Mehrheit (71 Prozent) der Befragten räumt ein, dass digitale Dienste so sehr in ihrem Alltag verankert sind, dass sie deren Einfluss gar nicht mehr genau einschätzen können.

  • 55 Prozent können nur bis zu vier Stunden lang auf ein mobiles Gerät verzichten, bevor es ihnen schwerfällt, selbst alltägliche Aufgaben zu bewältigen.
  • 61 Prozent geben zu, dass sie morgens nach dem Aufwachen als allererstes zu ihrem Handy greifen – noch bevor sie mit jemandem sprechen.

Digitale Leistung wirkt sich auf den Umsatz aus

Mehr als drei Viertel der Verbraucher (76 Prozent) geben an, dass ihre Erwartungen an die Leistungsfähigkeit digitaler Dienste steigen, verglichen mit 62 Prozent im Jahr 2017. Ebenso gibt die Mehrheit (70 Prozent) der Befragten an, Probleme mit digitalen Diensten heute weniger zu tolerieren als noch vor zwei Jahren. Diese zunehmende Intoleranz führt dazu, dass Verbraucher von den Marken, mit denen sie interagieren, eine intuitive und immer bessere Customer Experience verlangen:

  • 50 Prozent der Befragten wären bereit, mehr für ein Produkt oder die Dienstleistung eines Unternehmens zu bezahlen, wenn dessen digitale Dienste besser sind als die eines Wettbewerbers.
  • 85 Prozent gehen davon aus, dass sie in den nächsten drei Jahren Marken anhand der Vielzahl der von ihnen angebotenen digitalen Dienste (Web, Mobiltelefon, Vernetzung usw.) auswählen.
  • Mehr als die Hälfte (54 Prozent) legt inzwischen mehr Wert auf die digitale Interaktion mit Marken als auf die physische.

Anwendungstreue ist die neue Markentreue

Diese Null-Toleranz-Einstellung der Verbraucher gegenüber schlechten digitalen Diensten sollte Unternehmen aufhorchen lassen. Die Studie zeigt, dass Verbraucher im Falle von Leistungsproblemen zu Konsequenzen neigen: Sie wechseln zum Wettbewerb (49 Prozent) oder raten anderen von der Nutzung des Dienstes oder der Marke ab (63 Prozent) – ohne die Marke zu informieren und ihr die Chance zur Verbesserung zu geben.

„Im Zeitalter des Digitalen Reflexes verzeihen oder vergessen Verbraucher schlechte Erfahrungen nicht mehr einfach so. Eine hervorragende Leistung im Digitalen ist heute die Basis für jedes Unternehmen, aber die wahren Gewinner werden diejenigen sein, die die Erwartungen der Kunden immer wieder übertreffen“, sagt Danny Winokur, General Manager bei AppDynamics. „Cisco und AppDynamics unterstützen weltweit führende Unternehmen dabei, ihre Anwendungen zu optimieren, indem sie kritische Echtzeitdaten über die Anwendungs- und Unternehmens-Performance bereitstellen. So können Unternehmen Engpässe erkennen und sofort entsprechend handeln.“

Wie Marken im Zeitalter des „Digitalen Reflexes“ bestehen

Viele Unternehmen investieren heute massiv in digitale Innovationen, um die Kundenbindung und den Umsatz zu steigern. Wenn sie jedoch die Leistung ihrer Anwendungen und digitalen Dienste nicht überwachen, besteht das erhebliche Risiko, dass Kunden unzufrieden sind oder gar zu einer anderen Marke abwandern. Einige einfache Schritte helfen bereits, um diesen Herausforderungen zu begegnen und die steigenden Erwartungen an das digitale Kundenerlebnis zu erfüllen bzw. zu übertreffen:

  • Fokus auf die Anwendungsleistung: Die Implementierung einer robusten APM-Lösung (Application Performance Management) trägt dazu bei, die Performance unternehmenskritischer Anwendungen und die Benutzererfahrung zu sichern.
  • Performance am geschäftlichen Erfolg ausrichten: Die Messung und Analyse der Performance von Anwendungen und deren Ausrichtung auf die Unternehmensleistung stellt sicher, dass digitale Dienste immer auf Geschäftsziele wie Kundenzufriedenheit und Umsatz abzielen.
  • Entscheidungen und Maßnahmen anhand von Fakten: Erstklassige digitale Erlebnisse erfordern die Echtzeitüberwachung des gesamten Technologie-Stacks, vom Gerät des Kunden über die Backend-Anwendung bis hin zum zugrundeliegenden Netzwerk. Entscheidend sind hier Lösungen, die einen AIOps-Ansatz verfolgen, d.h. die Daten werden mithilfe von maschinellem Lernen und KI schnell und automatisch in aussagekräftige Erkenntnisse umgewandelt.

Über AppDynamics 
AppDynamics, ein Cisco-Unternehmen und führender Anbieter von Application-Intelligence-Lösungen, bietet Unternehmen Echtzeit-Informationen zu Anwendungsperformance, User Experience und Geschäftsprozessen und ermöglicht so die nötige Agilität im zunehmend software-getriebenen Umfeld. Die AppDynamics Application Suite basiert auf der App iQ Platform und ermöglicht Unternehmen ihre komplexen softwarebasierten Prozesse zu überwachen, verwalten, analysieren und optimieren. Nicht zuletzt bestätigt das Vertrauen der Global 2000 AppDynamics als führenden Partner in der digitalen Transformation. Weitere Informationen finden Sie unter www.appdynanmics.de   

Pressekontakt 
Hotwire 
AppDynamics@hotwirepr.com 
+49 69 25 66 93 31

Aufmacherbild / Quelle / Lizenz
Bild von Prashant Gautam auf Pixabay

Textlizenz: Die ist eine Pressemitteilung von AppDynamics

NoSQL – Leistungsstarke Applikationen

Leistungsstarke Applikationen bauen mit NoSQL

Gastbeitrag von Bruno Šimić *

Die Geschäftswelt steckt mitten in der digitalen Transformation.  Die Treiber der Veränderung sind Online-Handel, Social Media, Streaming oder auch neue Kommunikationstechnologien. Klassische RDBMS können mit diesen neuen Herausforderungen nicht mehr performant, effizient und kostengünstig umgehen, Unternehmen entscheiden sich daher zunehmend für NoSQL-Datenbanken.

NoSQL-Datenbanken bügeln die Schwächen relationaler Datenbank-Management-Systeme (RDBMS) aus. Sie sind besonders gut darin, hohe Datenvolumina aus semi- und unstrukturierten Daten mit vielen Schreib- und Lese-Operationen zu bearbeiten. NoSQL-Datenbanken sind die Spezialisten für Fotos, Videos und Textdokumente aller Art, also für die Daten, die in der Kommunikation mit Kunden, Partnern, Lieferanten und Mitarbeitern heute typischerweise anfallen. Die alten RDBMS können zwar auch mit unstrukturierten Daten umgehen, aber nur zu wesentlich höheren Kosten für die zugrundeliegende Infrastruktur beziehungsweise Hardware. Zudem leidet die Performance, weil sie architektonisch nicht dafür ausgelegt sind.




NoSQL-Datenbanken wie Couchbase sind deutlich flexibler als klassischeRDBMS, beherrschen aber auch die Transaktionen und SQL-Standard relationaler Systeme. (Quelle: Couchbase)

NoSQL-Datenbanken skalieren schnell und kostengünstig

Einer der Hauptvorteile bei der Einführung einer NoSQL-Datenbank mit verteilter Architektur besteht darin, dass sie deutlich schneller, einfacher und kostengünstiger skalieren als eine relationale Datenbank. Die meisten RDBMS beherrschen außer der vertikalen Skalierung (Scale-up) nur rudimentäre Formen der horizontalen Skalierung (Scale-out). Im Unterschied dazu nutzen die meisten NoSQL-Datenbanken eine horizontale Skalierung (Scale-out), bei der Daten und Leistung mithilfe von Containern und Virtuellen Maschinen auf zusätzliche Server verteilt werden. Auch mehr Benutzer werden auf mehr Servern aufgeteilt, um Latenzzeiten niedrig zu halten. Um eine hohe Verfügbarkeit und Sicherheit zu gewährleisten, unterstützt Couchbase mit einer standardmäßig vorhanden dedizierten Cross-Datacenter-Replication (XDCR)-Funktion die uni- und bidirektionale Replikation über mehrere Rechenzentren. Viele RDBMS dagegen benötigen für die Replikation zusätzliche Software – und das bedeutet höhere Lizenzkosten.

JSON-Dokumente flexibler und agiler als Tabellen

Auch bei der Datenablage zeigen sich deutliche Unterschiede. NoSQL-Dokumentdatenbanken speichern Daten in JSON (JavaScript Object Notation); im Unterschied dazu nutzen relationale Datenbanken dafür eher fixe Tabellen. JSON bietet ein kompaktes, sehr flexibles Datenformat, um Arrays, Objekte und andere Variablen auch geschachtelt in lesbarer Form zu speichern. Damit lassen sich semi- und unstrukturierte Textdokumente besser abbilden. Die NoSQL-Datenbank Couchbase Server speichert JSON-Dokumente in „Buckets“ die über mehrere Serverknoten verteilt sind. Ein Bucket ist ein Daten-Speicher bei Couchbase und entspricht einer Datenbank bei RDBMS.

„NoSQL-Datenbanken kommen mit den neuen Anforderungen und Datentypen
deutlich performanter und kostengünstiger zurecht als die klassischen RDBMS.“

Starke Teamarbeit

Unternehmen, die NoSQL-Datenbanken nutzen, haben in einer frühen Evaluationsphase einen Use Case, eine Applikation oder einen Service ausgewählt. Typische Beispiele sind Produktkataloge, auf die viele Kunden mit stationären und mobilen Endgeräten zugreifen, Online-Buchungssysteme mit einer großen Zahl gleichzeitiger Benutzer, Asset-Tracking-Services, Content-Management-Dienste, Customer Management Services oder Streaming-Dienste für Videos. Auch wenn Big Data und Streaming immer mehr an Bedeutung gewinnen, werden nicht alle Unternehmen ihre sämtlichen Legacy-RDBMS in einem Schritt auf eine moderne NoSQL-Datenbank migrieren. Das ist auch gar nicht nötig, denn NoSQL und RDBMS bilden ein starkes Team: eine NoSQL-Datenbank wie Couchbase übernimmt zum Beispiel als performanter Cache-Server die neuen modernen Datentypen, während ein RDBMS das klassische, transaktionale Datenbankgeschäft erledigt. Kunden profitieren dadurch vom Besten aus beiden Welten.

* Bruno Šimić ist Senior Solutions Engineer bei Couchbase in München

Aufmacherbild / Quelle / Lizenz
Bild von Markus Spiske auf Pixabay

Incident Response: Vieles liegt im Argen

Trotz der nach wie vor zunehmenden Sicherheitsvorfälle hat eine Untersuchung von NTT Security erneut ein beunruhigendes Ergebnis zutage gefördert. Noch nicht einmal die Hälfte der befragten deutschen Unternehmen verfolgt eine Incident-Response-Strategie.

Obwohl nur mit dedizierten Ablauf- und Notfallplänen angemessen und schnell auf Sicherheitsvorfälle reagiert werden kann, wird das Thema Incident Response weiterhin stiefmütterlich behandelt – so lautet ein zentrales Ergebnis des Risk:Value-Reports von NTT Security (1). Nur 36% der deutschen Unternehmen verfügen über einen Incident-Response-Plan. Immerhin 42% befinden sich laut Studie im Implementierungsprozess und weitere 13% planen die Umsetzung entsprechender Maßnahmen in naher Zukunft.

Aber auch die erfreulich hohe Zahl laufender Implementierungen und Projekten in Planung ist bei genauer Betrachtung ernüchternd: Die vergangenen Studien machen deutlich, dass sie oft nur Compliance-getrieben sind und reine Absichtserklärungen bleiben, die nicht zu einer signifikanten Verbesserung der Incident Response Readiness der Unternehmen im Folgejahr führen – nur wenige dieser Incident-Response-Projekte werden erfolgreich umgesetzt.

Doch selbst wenn ein Unternehmen eine Incident-Response-Strategie verfolgt, sind nach NTT-Erfahrung Prozesse oft falsch oder unzureichend aufgesetzt. Wichtig ist vor allem die Erkenntnis, dass ein Incident-Response-Plan keine statische Angelegenheit ist. Er kann nicht in eine Schublade gelegt und nur bei Bedarf genutzt werden. Er muss vielmehr regelmäßig getestet werden – und zwar wie bei einer Brandschutzübung. Das heißt, die Tests müssen möglichst realitätsnah erfolgen. Und wenn dabei etwas nicht funktioniert, müssen unmittelbar Verbesserungen initiiert werden. Solche kontinuierlichen Tests auf Unternehmensseite sind aber eher die Ausnahme. Und gerade Worst-Case-Szenarien werden nahezu nie betrachtet. Ein effizienter Incident-Response-Plan muss aber gerade auf derartige gravierende Sicherheitsvorfälle ausgerichtet sein.

Darüber hinaus ist es von essenzieller Bedeutung, dass alle von Incident-Response-Prozessen betroffenen Mitarbeiter informiert sind. Sie müssen genau wissen, welche Rolle und Aufgabe ihnen zukommt. Und dafür sind regelmäßige Trainings und Schulungen erforderlich, denn die konkreten Anforderungen ändern sich permanent, gerade in der schnelllebigen IT.

Andererseits gibt es aber auch positive Tendenzen: Rückblickend auf das vergangene Jahr ist festzuhalten, dass immer mehr Unternehmen professionell kommunizieren, wenn ein Sicherheitsvorfall eintritt. Zum einen ist diese Entwicklung getrieben durch die DSGVO, die klare Vorgaben hinsichtlich Meldepflichten macht. Zum anderen ist aber auch eine generell bessere Information der Öffentlichkeit und der Kunden zu beobachten. Damit reagieren Unternehmen auf die zunehmende Sensibilität der Bevölkerung in Sachen Datenschutz und Datensicherheit.

Zum Schluss noch ein wichtiger Punkt: Viele IT-Initiativen in Unternehmen sind heute rein Compliance-getrieben. Regularien wie die DSGVO sehen einen Incident-Response-Plan vor, also investieren Unternehmen. Das sollte jedoch nicht der Hauptmotivator sein, sondern die Verbesserung des Sicherheitsniveaus. In erster Linie muss es immer um die Erhöhung der Sicherheit für das eigene Unternehmen und die kritischen Systeme, Applikationen und Daten gehen. Ist diese gewährleistet, werden Gesetze, Verordnungen oder Richtlinien automatisch erfüllt. Compliance und Cybersicherheit gehen in einer ganzheitlichen Strategie „hand-in-hand“ und ergänzen sich perfekt zum Nutzen des Unternehmens.

 

Gastautor
Kai Grunwitz ist Geschäftsführer von NTT in Deutschland

(1) Die Risk:Value-Studie wurde im Auftrag von NTT Security zwischen Februar und März 2019 vom Marktforschungsunternehmen Jigsaw Research durchgeführt. Dabei wurden weltweit mehr als 2.200 Führungskräfte zu Themen rund um die IT und IT-Sicherheit befragt.

Die vollständige Risk:Value-Studie zum Download finden Sie unter:
https://www.nttsecurity.com/de-de/risk-value-report-2019

Moonshots for Europe

Die TREND-REPORT-Redaktion sprach mit Harald Neidhardt, CEO & Curator, Futur/io – European Institute of Exponential Technologies & Desirable Futures. über die die Innovationslandschaft in Europa und das Potential von Moonshot Thinking.

Stammdatenmanagement-Projekt erfolgreich starten

Ein Stammdatenmanagement-Projekt starten – Schritt-für-Schritt-Anleitung für einen Business Case

Die Einführung von Stammdatenmanagement ist ein großer Schritt – organisatorisch, strukturell und budget-seitig. Damit den Entscheidern im Unternehmen die Beurteilung des Vorhabens erleichtert wird, liegt ein wichtiger Teil der Vorbereitung in der Business Case Erstellung. Im Business Case werden Kosten und Nutzen skizziert, der Return on Investment (ROI) bestimmt und das gesamte Projekt schrittweise und strukturiert bewertet. Der vorliegende Artikel erläutert die einzelnen Schritte, die zur Erstellung eines überzeugenden Business Case notwendig sind.

Warum einen Business Case für MDM?

Stammdatenmanagement ist ein langfristiges Projekt, das die gesamte Organisation, weit über die IT-Abteilung hinaus, betrifft. Jene Art von Investitionsentscheidung muss entsprechend auf der obersten Leitungsebene des Unternehmens entschieden und unterstützt werden. Aber auf welcher Basis kann die langfristige Vorteilhaftigkeit der Investition belegt werden, um das zahlengetriebene Management von der Nachhaltigkeit eines Stammdatenmanagement-Projekts zu überzeugen?

Ein besonderes Augenmerk bei der Erstellung eines Business Case sollte auf den Vorteilen von MDM liegen, wie z. B.:

  • Höhere Produktivität
  • Mehr Kundenzufriedenheit
  • Optimierte Lagerhaltungskosten
  • Sicherung der Wettbewerbsfähigkeit

Und die Chancen für eine erfolgreiche Entscheidung stehen gut: MDM wird verstärkt als Business Enabler anerkannt und bildet die Grundlage für eine unternehmensweite Digitalisierung.

Schritt 1: Geschäftsbereich bestimmen

Schlechtes Stammdatenmanagement verursacht Probleme in verschiedensten Geschäftsbereichen. Häufige Anwendungsszenarien können dabei sein:

  • Kreditoren: Die Geschäftsführung verlangt eine Übersicht über die wichtigsten Zulieferer des Unternehmens. Die Erstellung des Reports benötigt jedoch viel mehr Zeit als erwartet. Die Daten – von der Produktions-, Logistik- und Finanzabteilung in unregelmäßigen Zeitabständen konsultiert und gepflegt – sind aufgrund unterschiedlicher Produktlinien über mehrere Datenbanksysteme verteilt.
  • Marketing: Zu Weihnachten verschickt das Unternehmen Grußkarten mit einem kleinen Präsent. Die Marketingabteilung nutzt ein CRM. Die dort hinterlegten Adressen werden nur dann überprüft und aktualisiert, wenn ein Mitarbeiter zufällig einen Fehler entdeckt. Nach Weihnachten erhält das Unternehmen eine Vielzahl von Postrückläufern.
  • Lagerhaltung: Ein Unternehmen des produzierenden Gewerbes ist darauf angewiesen, den Lagerraum so effektiv wie möglich zu nutzen. Deshalb wird die Einkaufsabteilung angewiesen, die Beschaffung der Produktionsmaterialien so zu gestalten, dass ein reibungsloser Ablauf der Produktion gewährleistet ist. Gleichzeitig soll so wenig Lagerfläche wie möglich belegt werden. Der Spagat zu einer ständigen Verfügbarkeit der Produkte bei möglichst kurzen Lieferzeiten stellt eine Herausforderung dar.

Identifizieren Sie also die betroffenen Fachabteilungen und richten Sie Ihren Business Case an diesen aus.

Schritt 2: Die wichtigsten Stakeholder identifizieren (CEO, CFO, LOB-Management)

Welche Personen und Rollen werden Berührungspunkte mit Ihrem MDM-Projekt haben? Genau diese Personen können Ihnen vorab wertvolle Informationen und Anforderungen zur Verfügung stellen. Außerdem sollten Sie sich darum bemühen, den konkreten Nutzen, den die jeweiligen Personen aus dem MDM-Projekt ziehen können, herauszustellen.

Die Stakeholder im MDM-Prozess stammen in der Regel aus der IT, der Geschäftsführung und den betroffenen Abteilungen. Dabei kann es sich beispielsweise um Bereichsleiter, Datenbeauftragte, Analysten oder Prozessverantwortliche handeln. Der jeweilige Datentyp bestimmt die Gruppe der involvierten Personen, z. B.:

  • Kundendaten: Leiter Vertrieb, Service, Marketing und Finanzen
  • Produktdaten: Leiter von Forschung & Entwicklung, Produktion, Marketing, Vertrieb, Service, Logistik und Finanzen
  • Lieferantendaten: Leiter der Lieferkette, Beschaffung und Finanzen
  • Mitarbeiterdaten: Leiter Personal und Finanzen

Auf der obersten strategischen Ebene möchte der Vorstand oder die Geschäftsführung wissen, wie sich der Aktienwert und die Marktkapitalisierung des Unternehmens durch MDM ändern. Zusätzlich ist abzusichern, dass die Bereichsleiter die MDM-Initiative unterstützen und deren Vorteile, Risiken und Kosten verstehen.

Ein Chief Financial Officer (CFO) kann ROI- und Kapitalwertberechnungen einfordern, da diese Person einen besonderen Fokus auf die Projektkosten legt. Um ihre Unterstützung zu bekommen, muss der Business Case also auch Informationen zu folgenden Aspekten enthalten:

  • Die zu implementierende MDM-Lösung
  • Die zu verwendenden Komponenten
  • Übersicht über Prozesse, die sich ändern werden
  • Die erforderlichen Ressourcen
  • Ein Implementierungsfahrplan, der detailliert genug ist, um die Kostenschätzungen mit hinreichender Sicherheit zu begründen

„Eine gute Struktur ist für die Erstellung eines MDM Business Case enorm hilfreich. Lernen Sie, in Dimensionen zu denken. Versuchen Sie, für den Status Quo Ihres Unternehmens eine Zukunftsvision zu ermitteln. So können Sie dann zielgerichtet für einen Geschäftsbereich die spezifischen Kosten und den Nutzen abschätzen und einen monetären Business Case erstellen – der Ihnen zu einem erfolgreichen Projektantrag verhilft.“

Dr. Tobias Brockmann von der innoscale AG

Schritt 3: Lösungen entwickeln und die Zukunftsperspektive aufzeigen

Hier bietet es sich an, das Projekt in mehrere Phasen zu untergliedern, Meilensteine festzulegen und einen groben Zeitplan aufzustellen. Planen Sie genügend Zeit ein, denn MDM-Projekte dauern aufgrund ihrer Komplexität häufiger etwas länger als erwartet. Entwickeln Sie eine Strategie und erstellen Sie eine Roadmap für die Umsetzung. Versuchen Sie dabei die folgenden Fragen zu beantworten:

  • Wie sieht das Zukunftsbild der Organisation mit einer MDM-Lösung aus?
  • Wie wird die Organisation dadurch verbessert?
  • Welche Prozesse ändern sich dadurch?
  • Welche Synergieeffekte werden erzielt?

Schritt 4: Ermittlung des Return on Investment (ROI)

Wägen Sie die Kosten schlechter Datenqualität gegen das Potenzial guter Datenqualität ab. Dieses MDM-ROI-Framework kann Ihnen dabei als Vorlage dienen.

Diese Tabelle enthält typische Beispiele für Kosten schlechter Datenqualität sowie Nutzen guter Datenqualität, die je nach Unternehmen und Business Case variieren. Sie sollen als Anregung für die Erstellung Ihres individuellen MDM Business Case dienen.

Unser Autor
Dr. Tobias Brockmann

Aufmacherbild / Quelle / Lizenz
Photo by Helloquence on Unsplash

Protolabs Studie: The Innovation Race

Die aktuelle Studie von Protolabs zeigt: Einer der großen Automobilhersteller wird in den nächsten drei Jahren vom Markt verschwinden

Innovationskraft als Schlüsselkompetenz für die Automobilbranche

Feldkirchen bei München, 1. Oktober 2019 – Mehr als die Hälfte der Befragten einer aktuellen Umfrage in der Automobilbranche erwartet, dass einer der großen Automobilhersteller in den nächsten drei Jahren vom Markt verschwinden wird. Dies geht aus der Studie „The Innovation Race“ von Protolabs hervor, in der das Unternehmen die Herausforderungen und Chancen für die europäischen Automobilhersteller untersucht hat.

Strengere Umweltauflagen in den kommenden 12 Monaten wurden von 55 Prozent der Befragten als die drängendste Sorge für die nahe Zukunft angesehen, während 52 Prozent der Ansicht sind, dass ein neuer Wettbewerber den Markt mit einer revolutionären Antriebstechnologie/Fahrzeugart in den nächsten drei Jahren massiv verändern wird.

Relevanz von Industrie 4.0 in der Automobilbranche

Die Umfrage, an der über 300 hochrangige Führungskräfte von Automobilherstellern und Großzulieferern wie Volkswagen, BMW, Mercedes, Daimler, Volvo, JLR, Lotus, Williams F1 und Magneti Marelli teilgenommen haben, zeigt auch den Übergang zur nächsten industriellen Revolution – 71 Prozent der Befragten gaben an, dass sie sich verstärkt den Bereichen Industrie 4.0 und Digitalisierung von Prozessen zuwenden müssen, um ihre Vormachtstellung zu behalten.

„In der Automobilbranche scheint sich ein regelrechter Sturm zusammenzubrauen, gefördert durch Handelskriege, der Brexit-Problematik und dem Wettlauf um die Elektrifizierung. Dies bedeutet eine Zeit extremer Veränderungen für die Automobilmarken sowie der gesamten Lieferkette“, sagt Bjoern Klaas, Vice President und Managing Director von Protolabs Europe, der weltweit schnellsten digitalen Quelle für individuell gefertigte Prototypen und Kleinserienteile.

„Aufgrund all dieser Herausforderungen ist es unerlässlich, dass die Industrie weiterhin in Forschung und Entwicklung und in gemeinsame Bemühungen investiert, Innovationen schnell auf den Markt zu bringen“, so Bjoern Klaas weiter. „Die neue Studie hebt die vielen Veränderungen hervor, die in den nächsten drei Jahren zu erwarten sind. Dabei ist Innovation der ausschlaggebende Faktor für den zukünftigen Erfolg in der Automobilbranche.“

Innovationsdruck: Schnelle Markteinführung von Innovationen entscheidend

Fast 70 Prozent der Befragten gaben an, dass sie noch nie unter solch einem großen Innovationsdruck gestanden haben wie heute. Zwei Drittel der Befragten sind zudem der Meinung, dass ihr Unternehmen ohne eine starke Forschungs- und Entwicklungsabteilung nicht mehr existieren könnte.

„Wir wissen, dass wir mit der Veröffentlichung der Studie eine starke Botschaft aussenden, die unterstreicht, welche Entwicklungen wir auch bei Protolabs erkennen“, so Bjoern Klaas. „Die Nachfrage nach unseren Services steigt zunehmend und gibt Unternehmen die Möglichkeit, innerhalb kürzester Zeit neue Teile zu entwickeln. Die schnelle Markteinführung ist in der Automobilbranche von entscheidender Bedeutung.“

Stärken und Schwächen

Positiv zu vermerken ist, dass 69 Prozent der Befragten zufrieden damit sind, wie sie Innovationen umsetzen können. Drei Viertel gaben an, dass sie ihre Prozesse darauf ausgerichtet haben, Kundenwünsche bereits in einem frühen Stadium des Designprozesses zu berücksichtigen.

Fast die Hälfte der Befragten sieht es als problematisch, ein erfolgloses Produkt einzustellen, ohne negative Auswirkungen zu erleiden, während 40 Prozent der Befragten der Meinung sind, dass ihre Innovationsstrategie nicht genügend mit der Unternehmensvision korreliert.

„Es gibt vonseiten der Unternehmen eine echte Bereitschaft zur Innovation, das ist klar zu erkennen“, so Bjoern Klaas. „Das Problem ist jedoch, dass es so viele Veränderungen im Automobilsektor gibt, dass selbst die größten Hersteller darum kämpfen, mit der Entwicklung Schritt zu halten.“

„Um die Herausforderungen bewältigen zu können, sollten sich Automobilhersteller auf ihre Kernkompetenzen konzentrieren und Know-how, das darüber hinausgeht, von externen Dienstleistern beziehen, um ihren Wettbewerbsvorteil nach wie vor halten zu können. Hier kann das Zurückgreifen auf externe Expertise ausschlaggebend dafür sein, um den entscheidenden Wettbewerbsvorteil zu erhalten.“

Innovationskraft als Schlüsselfaktor

Geht es um die Innovationskraft von Unternehmen in Deutschland, ist vor allem Kommunikation eine Schlüsselmaßnahme. Von 33 Prozent der deutschen Befragten wird angegeben, dass sie eine unternehmensweite Innovationskultur verankert haben, jedoch sagten lediglich 19 Prozent der Befragten, dass der Innovationsaspekt vom Geschäftsführer vorangetrieben wird. Nur 16 Prozent gaben an, dass sie überlegen, ihr Geschäftsmodell vollständig zu überdenken.

Um ihren Innovationsgrad zu erhöhen, ergreifen deutsche Unternehmen allerdings bereits zahlreiche Maßnahmen. 58 Prozent der deutschen Befragten sagten, dass sie die Kommunikation zwischen Forschung und Entwicklung sowie Sales/Marketing/Vertrieb verbessern wollen. 32 Prozent gaben an, von der Innovationskraft von externen Anbietern und Dienstleistern zu profitieren.

Methodik

Die Studie von Protolabs wurde im Juli 2019 durchgeführt.
300 führende Automobilexperten aus Deutschland, Frankreich, Italien und Großbritannien nahmen daran teil.
Die Befragten arbeiten in den Bereichen Geschäftsleitung, Forschung und Entwicklung, Engineering-Design, Technologie und Supply Chain Management und geben einen der zurzeit umfassendsten Einblicke in die Branche.

Innovation war ein Kernthema der Umfrage, die zeigt, dass Unternehmen unterschiedlich darauf vorbereitet sind, diesen Aspekt umzusetzen.

Die komplette Studie zum Download:
https://get.protolabs.de/innovation-race/

Weitere Informationen zum Unternehmen finden Sie unter
www.protolabs.de

Kontaktinformationen:
PR-Agentur
HBI GmbH
Jasmin Rast
protolabs@hbi.de
Tel.: 089/993887-27

Protolabs
Tobias Fischer
marketing@protolabs.de
+49 (0) 89 905002 0

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

30. Jubiläum der SPS

Weiter auf Erfolgskurs: Zum 30. Jubiläum öffnet die Fachmesse für die smarte und digitale Automatisierung, die SPS – Smart Production Solutions, vom 26. – 28. November 2019 wieder Ihre Tore in Nürnberg.

Die Aussichten und die Buchungszahlen für die Messe sind erneut sehr positiv und bestätigen die Bedeutung der Fachmesse. Rund 1.650 Anbieter von Automatisierungstechnik aus aller Welt werden als Aussteller erwartet. Aktuelle Produkte und Lösungen der industriellen Automation aber auch richtungsweisende Technologien der Zukunft stehen im Fokus der Leistungsschau.

Umfassendes Automatisierungsangebot

Besucher der Messe profitieren von dem umfassenden Angebot der nationalen und internationalen Automatisierungs- und Digitalisierungsanbieter und können sich dennoch innerhalb eines Tages einen kompletten Marktüberblick verschaffen. So verzeichnet der Messeveranstalter Mesago 71 % Tagesbesucher auf der Automatisierungsmesse. 7 % der Besucher nehmen für ihre Technologie-Recherche alle drei Messetage in Anspruch. Der Anteil internationaler Besucher lag im vergangenen Jahr bei 27,6 % (18.154 Besucher). 47.546 Besucher der Vorjahresveranstaltung stammten aus Deutschland.

Statements bestätigen die positiven Eindrücke der Besucher von der Fachmesse:

“Für jeden Automatisierer ist der Besuch der SPS jährliches Pflichtprogramm. Produkte zum Anfassen, persönlicher Kontakt, Überblick über den Markt, darin ist diese Messe unschlagbar,” erklärt Horst Fritz, Geschäftsführer der Fritz Automation GmbH.

“Die SPS ist das Highlight des Messejahres für mich. Sie hat Leuchtturmcharakter für die Automatisierungsbranche. Die Bündelung von Automatisierung und IT hilft auf dem Weg der Digitalisierung. Vor Ort treffen wir wirklich alle Entscheider aus der Automatisierungstechnik. Die Messe hat für uns einen unschätzbaren Wert.” erklärt Lorenz Arnold, Geschäftsführender Gesellschafter, MGA Ingenieurdienstleistungen GmbH.

Digitaler Wandel im Mittelpunkt

Die Digitalisierung hat einen enormen Einfluss auf die Automatisierungsbranche. Zahlreiche Aussteller zeigen daher vor Ort ihre Lösungsansätze, aber auch diverse Produkte und Applikationsbeispiele zur Digitalen Transformation. Auch IT-Anbieter sind vermehrt auf der SPS vertreten. Der Charme hierbei ist: IT-Themen werden sehr stark und fokussiert im Verbund mit den Automatisierern dargeboten. Präsentationen der Themen wie Big Data, Cloud-Technologie, 5G und Künstliche Intelligenz erfolgen oft praxisbezogen in Gemeinschaftsaktionen und -demos zusammen mit Automatisierungsanbietern. Themenbezogene Sonderschauflächen und Vorträge auf den Messeforen tun ihr Übriges zur Darstellung der digitalen Transformation in der fertigenden Industrie.

Im Rahmen von Guided Tours wird auch in diesem Jahr Besuchern aus dem In- und Ausland die Gelegenheit gegeben, in geführten Touren innovative Aussteller zu einzelnen Themen zu besuchen. So können sich die Teilnehmer einen kompakten Überblick zu den Themen Machine Learning und KI, Industrial Security in der Fertigung, Cloud Ecosysteme und Predictive Maintenance verschaffen. Der Fokus der Touren liegt dabei auf echten Use Cases.

Der im vergangenen Jahr erstmalig durchgeführte Automation Hackathon fand großen Anklang. Hier werden im Wettbewerbs-Charakter nützliche und kreative Softwarelösungen für die Automatisierungsbranche programmiert. Aufgrund der intensiven Planungsvorbereitung wird der nächste Automation Hackathon in 2020 stattfinden.

Gemeinschaftsstände und Foren runden das Messeangebot ab

Umfassende Einblicke in spezifische Themen und die Möglichkeit sich von Anbietern zu individuellen Anforderungen beraten zu lassen, erhalten Besucher auf den Gemeinschaftsständen:

  • “Automation meets IT” in Halle 6
  • “AMA Zentrum für Sensorik, Mess- und Prüftechnik“ in Halle 4A.

Die Foren der Verbände VDMA in Halle 5 und ZVEI in Halle 6 sowie die Messeforen in Halle 3 und 10.1 bieten qualitativ hochwertige und fachspezifische Vorträge sowie Podiumsdiskussionen an. Besucher können sich hier zu branchenaktuellen Themen informieren und mit Experten im persönlichen Dialog austauschen.

Copyright Mesago / Fotograf Mathias Kutt

Begleitender Kongress: Automation 4.0 Summit

Für all jene, die sich noch tiefgehender zu aktuellen Themen der Automation informieren wollen, bietet sich der von den WEKA Fachmedien organisierte begleitende Kongress zur SPS an. In 4-stündigen Sessions werden dieses Jahr die Themen

5G, TSN und OPC UA in der Industrie
Securely connected – vom Sensor bis zur Cloud
IOT-Plattformen – Best Practises
Flexible Automatisierung für wenig Geld – was leistet die Robotik?

unter praxisbezogenen Aspekten fokussiert beleuchtet.

Key Facts zur Veranstaltung

Was: SPSSmart Production Solutions

Wann: 26. – 28.11.2019

Wo: NürnbergMesse

Planung & Vorbereitung
Weitere Informationen zur Veranstaltung, Tickets, Reisespecials sowie Tipps zur Vorbereitung
finden Sie unter sps-exhibition.com

Aus SPS IPC Drives wurde SPS

Seit Beginn 2019 trägt die SPS IPC Drives einen neuen Namen: SPS – Smart Production Solutions. Der Name der etablierten Fachmesse hat sich geändert, das bewährte Konzept und die inhaltliche Ausrichtung bleiben bestehen und werden fortgeführt. Der Veranstalter Mesago Messe Frankfurt GmbH trägt hiermit der digitalen Transformation der Industrie Rechnung und verspricht weiterhin Relevanz, Kompetenz und einen Austausch auf Augenhöhe.

Über Mesago Messe Frankfurt

Mesago mit Sitz in Stuttgart wurde 1982 gegründet und ist Veranstalter fokussierter Messen, Kongresse und Seminare mit Schwerpunkt auf Technologie. Das Unternehmen gehört zur Messe Frankfurt Group. Mesago agiert international, messeplatzunabhängig und veranstaltet pro Jahr mit 160 Mitarbeitern Messen und Kongresse für mehr als 3.300 Aussteller und über 110.000 Fachbesucher, Kongressteilnehmer und Referenten. Zahlreiche Verbände, Verlage, wissenschaftliche Institute und Universitäten sind als ideeller Träger, Mitveranstalter und Partner aufs Engste mit Mesago-Veranstaltungen verbunden. (mesago.de)

Hintergrundinformationen Messe Frankfurt
Weitere Informationen: www.messefrankfurt.com

Aufmacher / Quelle / Lizenz
Copyright Mesago / Fotograf Mathias Kutt

Konzepte für Mobilität und Logistik von morgen

Experten und First Mover diskutieren Konzepte für die Mobilität und Logistik von morgen

Die Frage wie wir uns zukünftig von A nach B bewegen, wird angesichts von Klimawandel, veralteter Infrastruktur, Dieselfahrverboten und drohendem Verkehrskollaps in Ballungsräumen, immer dringlicher. Auf der Hypermotion vom 26. bis 28. November 2019 treffen sich Experten und First Mover, um über neue Konzepte zur Mobilität und Logistik zu diskutieren.

Aktuelle Fragestellungen zur Zukunft von Mobilität und Logistik beleuchten hochkarätige Experten in Konferenzen, Diskussionsrunden und Think Tanks. Dabei reicht das Themenspektrum von der Digitalisierung und Vernetzung von Verkehrssystemen über zukünftige Mobilitätskonzepte, Mikromobilität und Radverkehr und die Elektrifizierung des Verkehrs bis zu nachhaltigen Lösungen und Supply Chains für die Logistik von morgen.

Zum ersten Mal findet der Deutsche Mobilitätskongress auf der Hypermotion zum Leitthema „Mobilität in Ballungsräumen – Chancen und Herausforderungen“ statt. Den Auftakt am 26. November macht die „Zukunftswerkstatt Mobilität“, die sich an die Fach- und Führungskräfte von morgen richtet. Am Nachmittag folgt eine Podiumsdiskussion zum Thema „Entwicklung Schieneninfrastruktur FrankfurtRheinMain“. Der zweite Tag steht unter dem Thema „Stadt der Zukunft“. Dabei werden in unterschiedlichen Veranstaltungsformaten die Herausforderungen der Städte im Hinblick auf die Mobilitätsbedürfnisse ihrer Bewohner, Entwicklungsansätze und Fallstricke des Ridesharings sowie erfolgreiche Mobilitätskonzepte diskutiert.

Die Stuva-Tagung, das Event der Tunnelbranche, findet parallel zur Hypermotion vom 26.-28. November 2019 in der Halle 5 auf dem Frankfurter Messegelände statt. Besucher erwartet ein umfangreiches Vortragsprogramm sowie die tagungsbegleitende Fachausstellung STUVA-Expo mit rund 200 ausstellenden Unternehmen.

Im Fokus der smc:smart mobility conference steht die DNA unserer zukünftigen Verkehrs- und Transportsysteme. Die Themen reichen von den neuesten Ideen für die Mobilität von morgen, über die besten Ansätze für die Vernetzung und Entwicklung der Infrastruktur zu Lande, zu Wasser und in der Luft bis zu Innovationen und deren konkreter Anwendung in Städten und Regionen. Die in Kooperation mit der Lotsenstelle des BMVI (Bundesministerium für Verkehr und digitale Infrastruktur) organisierte Konferenz skizziert die Mobilität der Zukunft und diskutiert die Auswirkungen auf die Stadtraum- und Regionalentwicklung. An den drei Veranstaltungstagen sprechen Experten mit den Teilnehmern über Chancen und Risiken auf dem Weg zur Mobilitätswende. Sie beleuchten die wichtigsten Trends, disruptive Veränderungen, evolutionäre Entwicklungen und die dafür notwendigen, kleinen und großen Revolutionen in MIV, ÖPNV und in der Logistik.

Dabei werden Fachkonferenzen, Ausstellung, Workshops und interaktive Elemente zu einem inhaltlichen Rückgrat der Hypermotion kombiniert. Als Bindeglied zwischen Logistik, Mobilität, Digitalisierung und Klimaschutz schafft die smc ein Forum für den Austausch von innovativen Mobilitätskonzepten sowie den Wissenstransfer bei der Umsetzung der seitens des BMVI geförderten Green City Masterpläne und damit zwischen Kommunen, Forschern, Unternehmen und privaten Interessen. Neben smarten Lösungen für Green Cities und Digitale Regionen wird in den interaktiven Sessions ein weiterer Schwerpunkt auf die EU-weit diskutierte Entwicklung hin zu kooperativen intelligenten Transport Systemen (C-ITS) gelegt. Die smc:Fraunhofer Mobility Infusion von der Fraunhofer Allianz Verkehr garantiert die notwendige Einbindung wissenschaftlicher Erkenntnisse und den aktuellen Stand der Forschung und Entwicklung.

Das Hypermotion-Lab ist die zentrale Bühne für disruptive und zukunftsgerichtete Themen. An den drei Tagen wagen Experten einen Blick in die Zukunft, u.a. geht es um die Themen Flugtaxi und Drohnen, Hyperloop, Verkehr der Zukunft, Künstliche Intelligenz, erste und letzte Meile und Mobilität in Ballungsräumen.

Bild von Pexels auf Pixabay

Das Urban Mobility Lab geht der Frage nach, ob neue Mobilität die Lebensqualität unserer Städte verbessern kann. Hier diskutieren Stadt- und Verkehrsplaner, Architekten, Zukunftsforscher und junge Kreative die Potentiale einer stadtgerechten Mobilität. Besucher können auf Augenhöhe mit renommierten Experten zusammenarbeiten und Studenten ihr eigenes Können unter Beweis stellen. An der Schnittstelle von Mobilität und Urbanität untersucht das Urban Mobility Lab die Trends, die öffentliche Räume nachhaltig verändern – Digitalisierung, Elektrifizierung, Fußgänger- und Fahrradmobilität, urbane Logistik, Intermodalität und Regionale Vernetzung.

Zum Thema „Alternative Mobilität in der Stadt: vom Besitzer zum Nutzer – wie man im urbanen Bereich günstiger und schneller zum Ziel kommt“ gibt es interessante Talks im VISION Mobility THINK TANK am 26. November. Spannende Einsichten liefert auch die zweite Session „Letzte Meile: Motor aus – Neue Konzepte von der Mikromobilität bis zum Lastenrad“.

Beim internationalen Supply-Chain-Gipfel ‚EXCHAiNGE – The Supply Chainers’ Community‘ diskutieren Supply-Chain-Experten und  Operations-Verantwortliche unter dem Leitmotiv „Management 4.0 – New Work & Digital Business“ am 26. und 27. November 2019.

Technologie, Innovation, Kollaboration, Mobilität, Nachhaltigkeit, Kultur und Mindsets – das sind wesentliche Erfolgsfaktoren einer ganzheitlichen Supply Chain. Wie es Führungskräften gelingt, diese Bausteine erfolgreich in Ecosystemen und Netzwerken zu etablieren, wird auf der EXCHAiNGE gezeigt. Die etablierte Networking‑Plattform bringt Experten in interaktiven Formaten zusammen und verknüpft Trends mit strategischen Kernfunktionen der Supply Chain zu folgenden  Schwerpunkten: Innovation, Nachhaltigkeit, digitale Disruption sowie Kultur zur digitalen Transformation. Höhepunkt der EXCHAiNGE ist die Verleihung des Supply Chain Management Awards und des Smart Solution Awards 2019 am 27. November. Am Vortag (26.11.) präsentieren die Award-Finalisten ihre herausragenden Supply Chain Lösungen der Jury und den Teilnehmern.

„Innovationen für die Logistik“ ist das Hauptthema der Logistics Digital Conference, die am 28.11.2019 stattfindet. Dabei werden visionäre Leuchtturmprojekte für die Logistik sowie das Innovationsprogramm Logistik 2030 des Bundesministeriums für Verkehr und digitale Infrastruktur (BMVI) vorgestellt und diskutiert. Eine weitere Session beschäftigt sich mit den Logistikhelden, dem Image und der Berufswelt von morgen.

Redner und Keynotes

Hochkarätige Experten liefern spannende Insights auf der Hypermotion 2019 – beim Deutschen Mobilitätskongress, der smart mobility conference, der EXCHAiNGE und der Logistics Digital Conference und im Hypermotion-Lab

Redner unter anderem sind:

Dr. Katrin Dziekan, Fachgebietsleiterin Umwelt und Verkehr, Umweltbundesamt:
„Nachhaltiges Supply Chain Management“
Frauke Heistermann, Aufsichtsrätin und Vorsitzende Rat für Technologie Vorstandsmitglied Bundesvereinigung Logistik:
„Logistikhelden, Image und die Berufswelt von morgen – DIE W.M.“
Prof. Dr. Michael Henke, Institutsleiter, Bereich Unternehmenslogistik, Fraunhofer-Institut für Materialfluss und Logistik:
„Technologie & Innovation in der Supply Chain“
Stefan Hoogervorst, Director of Education and Research, PMI Production Management Institute:
„Interaktive Supply Chain Themenrunde“
Klaus Krumme, Geschäftsführung, Zentrum für Logistik & Verkehr (ZLV) der Universität Duisburg-Essen (UDE):
EXCHAiNGE: Eröffnung und „Nachhaltiges Supply Chain Management“
Prof. Dr. Paul Lukowicz, Lehrstuhlinhaber für KI an der TU Kaiserslautern, Wissenschaftlicher Direktor DFKI:
Podiumsdiskussion: „Cyborg – Das Zeitalter der Maschinen-Menschen hat begonnen“
Peter Lüttjohann, Referatsleiter Güterverkehr und Logistik, Bundesministerium für Verkehr und digitale Infrastruktur:
„Innovationsprogramm Logistik 2030“
Prof. Dr. Ing. Wolfgang Maaß, Wissenschaftlicher Direktor Deutsches Forschungszentrum Künstliche Intelligenz:
Podiumsdiskussion: „Cyborg – Das Zeitalter der Maschinen-Menschen hat begonnen“
Frank Müller, Leiter Hauptstadtbüro, Bundesverband eMobilität
„Alternative Mobilität in der Stadt“
Prof. Dr. Kai-Oliver Schocke, Direktor des Research Lab for Urban Transport ReLUT, Frankfurt University of Applied Sciences:
„Leuchtturmprojekte für die Logistik“

Alle Referenten und Themen finden Sie hier:
https://events.messefrankfurt.com/2019/hypermotion/de/People

Key Facts

Was: Hypermotion

Wann: 26.- 28.November 2019

Wo: Messe Frankfurt, Frankfurt am Main

Mehr Informationen unter www.hypermotion-frankfurt.com.

Design Thinking – Vom Innovationsmotor zum Kulturtransformator

Design Thinking, vor zehn Jahren noch völlig unbekannt in Deutschland, hat sich in den vergangenen Jahren einen festen Platz in der Topliga der agilen Frameworks erobert. Viele Unternehmen haben mittlerweile ihre Produkt- und Service-Innovationsrate dank der Umstellung auf Design-Thinking-Prozesse erheblich beschleunigt und vor allem viel über Ihre Kunden erfahren. Eine Reihe von Agenturen und Unternehmensberatungen haben in den letzten Jahren Design Thinking in ihren Methodenkoffer gepackt und verkaufen es als neuen agilen Prozess.

Aber damit nutzen sie nur einen Bruchteil des Potenzials. Unternehmen wie Bosch haben erkannt, dass Design Thinking mehr ist als eine Innovationsmethode und begreifen es als Kulturtransformator. Wenn Sie sich im Rahmen der digitalen Transformation fragen, ob Ihre Organisation richtig aufgestellt ist, ob die Potenziale Ihrer Mitarbeiter sich frei entfalten können, ob Ihre räumliche Ausstattung noch zeitgemäß ist und wie Ihre Arbeitsprozesse und letztlich Ihre gesamte Firmenkultur agiler gestaltet werden können, dann sollten Sie hier weiterlesen.

Was leistet Design Thinking?

Mit Design Thinking, wie es an der HPI School of Design Thinking in Potsdam entwickelt wurde, kann eine Organisation die Kulturentwicklung in Gang setzen, die parallel zur Einführung digitaler Technologien notwendig ist. Design Thinking entfaltet die Potenziale der Mitarbeiter und motiviert und befähigt zur Selbstorganisation, ausgehend von kleinen, heterogenen Gruppen.

Der Ansatz ist insbesondere in Phasen grundsätzlicher Neuorientierung, Strategieentwicklung, Produkt- und Service- innovation und bei der Lösung komplexer Fragestellung extrem hilfreich. Dabei schärft er den Blick aller auf drei kulturrele- vante Faktoren. Das konsequent menschenzentrierte Denken und Handeln im Design-Thinking-Modus führt nachhaltig zu einer ganzheitlichen, unternehmerisch verantwortlichen Sicht und bewirkt letztlich ein dynamisches Re-Design der Organisa- tion hin zu permanenter Veränderungsbereitschaft.Für inkrementelle Verbesserungen und Veränderungen eignen sich andere Ansätze besser.

Geschichtlicher Hintergrund

Die Ursprünge im Silicon Valley

IDEO, ein kalifornisches Design-Unternehmen, gegründetvon David Kelley, Mike Nutall und Bill Moggridge, hatte schon in den 1990er-Jahren mit Design Thinking die ersten Interaktionsprodukte wie die Apple-Mouse oder den Palm V für die Digitalindustrie entwickelt. Richtig populär wurde der Ansatz und die Begrifflichkeit aber erst durch die d.school, die David Kelley 2005 als erste akademische Design-Thinking-Einrich- tung an der Stanford University in Palo Alto startete. Hunderte von Absolventen und viele Gründungen von Start-ups trugen den Ansatz in die Welt und brachten die iterativen Arbeitsmethoden, welche Designer und Architekten ohnehin intuitiv verwenden, in die Medizin, den Maschinenbau und den Finanzsektor. Es wurde bald klar, dass der Ansatz nicht nur bei der Entwicklung von Produkten enorm hilfreich sein würde, auch Dienstleistungen ließen sich deutlich verbessern bezie- hungsweise neu erfinden.

Hasso Plattner, Mitgründer und langjähriger Vorstandsvorsitzender des deutschen Softwareherstellers SAP, hatte schon kurz nach dem Start der d.school in Stanford den Kontakt zu David Kelley gesucht und war von dem, was er in den Containerräumen auf dem Campus erlebte, völlig begeistert.

Studierende aus vielen Disziplinen arbeiteten gemeinsam in kleinen Teams an der Lösung komplexer Fragestellungen, benutzten jede Menge visueller Werkzeuge und hatten sich einen Teil der Arbeitsumgebung selbst zusammengezimmert. In diesem »Kindergarten für Erwachsene« fühlte sich Hasso Plattner sofort wohl und erahnte, dass die Energie, die hier freigesetzt wurde, auch für sein Unternehmen enorm förderlich sein könnte. Er wurde mit einem zweistelligen Millionenbetrag der erste und größte Stifter für die d.school und installierte kurze Zeit später das »Design Services Team« bei SAP, das sich schrittweise in den Entwicklungsprozess bei SAP einbrachte. Der Nutzer stand von nun an im Zentrum des Interesses und die Begriffe »User Centered Design«, »User Experience Design« und »Design Thinking« wurden nahezu synonym benutzt.

Ein Modus zieht um den Globus

Im Oktober 2007 nahm die School of Design Thinking am Potsdamer Hasso-Plattner-Institut bereits kurze Zeit später ihre Arbeit als Schwesterinstitut der d.school Stanford auf. 40 Studierende aus rund 30 Disziplinen und 20 Hochschulen ließen sich zusammen mit 16 Professoren und Assistenten auf dieses Abenteuer ein und nach kurzer Zeit war dieselbe außergewöhnliche Energie zu spüren wie in Stanford.

Es war nicht die kalifornische Sonne, das Silicon Valley oder der außergewöhnliche Stanford-Campus, es war derModus, der offenbar schlummernde Energiepotenziale – die intrinsische Motivation – freisetzte und magische Wirkung zeigte.

Der Modus des 21. Jahrhunderts setzt auf ein Miteinander und weniger auf ein Gegeneinander. Er trainiert neben dem Denken mit dem Kopf auch das Denken mit den Händen, gene- riert anfassbare Prototypen und bezieht den Nutzer möglichst früh ins Ausprobieren ein. Dieser Weg zu Innovationen schafft eine Atmosphäre der Offenheit sowie des Vertrauens und akzeptiert das Begehen von Fehlern als integralen Bestandteil des iterativen Schleifendrehens. Das Ergebnis sind letztlich Ideen, die überraschen und die Experten in Erstaunen versetzen.

Zu Beginn ahnte noch niemand, dass in Stanford aus den anfänglich 20 Studierenden einmal 600 würden, die jedes Jahr d.school-Programme absolvieren und erst recht ahnte niemand, welche Wirksamkeit Design Thinking in deutschen Industrieunternehmen entfalten würde. Schon früh war klar, dass auch in Potsdam neben dem studentischen Programm – welches mittlerweile von 240 Studierenden im Jahr absol- viert wird – ebenso Weiterbildungsformate für Berufstätige entwickelt werden sollten. Aber dass aus den anfänglich circa 20 Teilnehmern dieses Programms mittlerweile mehr als 3 000 im Jahr geworden sind, hätte auch Hasso Plattner nicht für möglich gehalten. Die Teilnehmer tragen seither nicht nur einen neuen Denk- und Arbeitsmodus in die Welt, sondern lernen auch, dass neues, Kollaboration förderndes Mobiliar nötig ist um, sie dabei zu unterstützen. Aus den acht Arbeitstischen und 20 Whiteboards, die zu Beginn im Jahr 2007 gemeinsam mit dem Berliner Unternehmen System 180 entwickelt wurden, ist inzwischen eine »Design Thinking Line« entstanden, die in hunderten von Unternehmen in ganz Europa Einzug gehalten hat.

Weltkarte mit den Design-Thinking-Zentren

2017 feierte die HPI School of Design Thinking in Potsdam mit dem d.confestival bereits das 10-jährige Bestehen und so modellieren Hochschulstandorte aus der ganzen Welt Innovationsprogramme nach dem Potsdamer Vorbild (2012 die Communication University of China in Peking, 2013 das Genovasi-Institut in Kuala Lumpur, 2014 das Open- Lab in Stockholm). Zwei Hochschulen in der Türkei sind im Jahr 2016 auf dem Weg zu Design-Thinking-Labs durch die politischen Wirren leider gebremst worden, aber die dritte offizielle HPI d.school wurde 2017 im südafrikanischen Kapstadt eröffnet. Ein HPI-Lab in New York City bildet vorerst den Abschluss der internationalen Expansion des Hasso-Plattner-Instituts. Die Global Design Thinking Alliance (GDTA), ebenfalls gestartet im Jahr 2017, zählt derzeit elf Bildungseinrichtungen auf fünf Kontinenten und in der von SAP, Philips und Nestlé initiierten Design-at-Business-Initia- tive finden sich über 100 Unternehmen aus der ganzen Welt zu regelmäßigen Meetups zusammen.

Das deutsche Bauhaus als Vorbild

Was genau lässt immer mehr Unternehmen und Organisa-tionen auf Design Thinking aufmerksam werden? Laut einer Studie der Unternehmensberatung Deloitte war Design Thinking bereits 2016 auf Platz fünf der Top 10 »Important Trends to Business«. Es ist der massive Veränderungsdruck, mit dem sich unsere Gesellschaft insbesondere durch digitale Transformationsprozesse konfrontiert sieht – dies verbunden mit steigender Komplexität, der nur noch mit einem komplexen Modus sinnvoll begegnet werden kann.

Die drei Kernelemente des Design Thinking

Komplexität hatten bereits vor hundert Jahren die Bau- haus-Gründer im Sinn, als sie die Brücken zwischen einzelnen Kreativ-Disziplinen bauten und Architekten mit Musikern, Bildhauern, Malern und Theaterleuten in einen Ausbildungs- kontext brachten. Für David Kelley war das deutsche Bauhaus die Inspiration zur d.school. »Aber der Winkel der Kreativ-Disziplinen reicht mit dem Blick auf die Komplexität heutiger Probleme nicht mehr aus, wir brauchen 360 Grad, wir brauchen die Kompetenz aller Disziplinen«, meinte er auf die Frage des Autors, was ihn zum radikalen Konzept d.school motiviert habe.

Ein Team aus Teams

Damit rückt auch schon das erste der drei Kernelemente des Design Thinking in den Fokus: divers zusammengesetzte Teams. Nicht auf den genialen Einzelerfinder, nicht auf die homogene Expertengruppe, sondern auf kleine Teams mit großer Vielfalt in den Bereichen Expertise, Gender, Kultur und Persönlichkeit setzt Design Thinking. Teamgrößen von vier bis sechs Personen haben sich hier als besonders wirkungsvoll erwiesen. Dies ist eine Größenordnung, die alle aus familiären Kontexten kennen und die den Vorteil hat, dass kein Teil- nehmer übermäßig lange dominieren oder sich wegducken kann. Jede Stimme ist wichtig und wird gehört. Ebenso ist die Selbstorganisationskraft einer solch kleinen Gruppe sehr hoch. Daher braucht es wenig Kontrolle. Trotzdem empfiehlt es sich für ein solches Team, immer einen betreuenden Coach einzusetzen. Dessen Aufgabe ist es nicht, das Team zu steu- ern, er hat vielmehr Timing-Kontrolle, Konfliktmanagement und Prozessnavigation im Fokus. Diese hohe Betreuungs- dichte ist notwendig, weil wir bis heute überhaupt nicht trai- niert sind, in kollaborativen Kontexten zu arbeiten.

Die Bildungsapparate Schule, Ausbildung und auch die Hochschule haben nach wie vor eine hochgradig kompetitive Ausrichtung. Einzelbewertung steht im Vordergrund, Wissens- erwerb steht vor Kompetenzerwerb und Projektarbeit ist eher die Ausnahme. Daher ist es gar nicht leicht, auch nicht für die aktuelle Studierendengeneration der »Digital Natives«, sich in einem Design-Thinking-Ambiente zurechtzufinden, sich auf andere Menschen auf gleicher Augenhöhe einzulassen und seine Eigenleistung in den Dienst der Gesamtaufgabe zu stel- len. Auch wenn es in der d.school keine Einzelbewertung mehr gibt – statt des IQ steht hier der WeQ im Vordergrund – und selbst die Teams nicht bewertet werden, ist das nicht leicht.

Es braucht eine gewisse Zeit, bis die trainierten Ellenbogen-Mechanismen heruntergefahren sind, weil begriffen wurde, dass der Konkurrenzdruck von den Schultern des Einzelnen auf die Schultern des gesamten Teams verlagert wurde. Im Idealfall arbeitet so nicht nur ein Team für sich allein, vielmehr arbeiten mehrere Teams an einer Fragestellung in einer offenen Arbeitsumgebung, die es erlaubt, dass man sich gegenseitig wahrnimmt und die Zwischenergebnisse teilt.
Dieser Modus nennt sich »Team of Teams«.

Der atmende Raum

Unterstützend wirksam ist der variable Raum, der das zweite Kernelement des Design Thinking darstellt. Dabei geht es um den Schritt weg vom klassischen Konferenzraum, in dem Zah- len und Buchstaben dominieren, hin zu einem Experimentier- raum, einem geschützten Raum des Scheiterns, in dem über einen vereinbarten Zeitraum hinweg alle möglichen verrückten Ideen nicht nur gedacht, sondern auch prototypisch auspro- biert werden können. Die Stanford d.school hatte schon früh begonnen, mit neuen räumlichen Konstellationen zu experimentieren und schnell war klar, dass für einen dynamischen Kreationsprozess ein hochflexibles Mobiliar vonnöten war, das es damals, auch bei den großen Büromöbelherstellern, noch nicht zu kaufen gab. Die Industriedesigner in Stanford behalfen sich mit selbst gestalteten und produzierten Möbeln. Im Kern ging es um Arbeitstische für vier bis sechs Personen. Steh- Arbeitstische sollten es sein, denn Stehen erhöht die Arbeits- dynamik, und auch Whiteboards benötigte man in großer Zahl. Alles sollte auf Rollen möglichst flexibel positionierbar sein – Teamräume oder Workspaces müssen schnell vergrößer- oder verkleinerbar sein, sie müssen sozusagen »atmen« können.

Die Whiteboards bilden einerseits mobile Wände, visuelle und akustische Trenner rund um ein Team, und liefern zum anderen die Basis für einen dreidimensionalen Informationsraum, den sich das Team durch permanentes Verschriftlichen und Visua- lisieren der Ideen selbst erschafft.

Zu den Workspaces gesellen sich noch drei weitere Areale, die für Design Thinking relevant sind:

> der Share-Space,

> der Make-Space und

> die Lounge zum Netzwerken.

Der Share-Space besteht in der Regel aus Sitzmöglichkeiten für alle Teilnehmer, einer Bühne oder Präsentationsfläche und einem Video-Projektor. Das ist der Ort, an dem sich die Teams regelmäßig gegenseitig kurz den Stand der Dinge präsen- tieren und Feedback von den Teilnehmern bekommen. Dieser Austausch ist wichtig, um die Brainpower aller Beteiligten, nicht nur des eigenen Teams, für die eigene Arbeit nutzbar zu machen. So entsteht ein »Team of Teams«.

Im Make-Space finden sich Werkzeuge und Materialien, mit denen die Teams erste Prototypen bauen können und so den Denkprozess quasi mit den Händen fortsetzen. Bei kurzenWorkshoplängen reichen hier Scheren, Schneidemesser, Kleber, Tacker, Haftnotizzettel, Papier, Pappen, Pfeifenreiniger, Knet- gummi und ein paar Legobausteine und -figuren. In Potsdam gibt es für elaborierte Prototypen Werkbänke mit voller Werk- zeugausstattung für Holz- und Metallarbeiten, Farbdrucker, Plotter, Lasercutter und 3-D-Drucker, Foto- und Videokameras und Schneideplätze sowie Ausrüstung für Augmented- und Virtual-Reality-Produktionen.

Die Lounge ist mit Sofas und Beistelltischen für den ent- spannten Austausch in den Pausen ausgestattet. Hier wird auch für Getränke und Snacks gesorgt. Diese Vielfalt an räum- lichen Konstellationen – heute in Unternehmen noch eher im separierten Experimentierlabor zu finden, wird zukünftig die gesamte Arbeitswelt nachhaltig verändern.

In sechs Schritten vom Problem- zum Lösungsraum

Das dritte Kernelement des Design Thinking ist die Arbeits- methodik, der iterative Prozess, der von Architekten und Designern abgeschaut wurde. Es sind im Wesentlichen sechs Phasen, die je nach Projektlänge mehrfach durchlaufen wer- den, um möglichst schnell zu brauchbaren Ergebnissen zu kommen.

Die ersten beiden Phasen, Verstehen und Beobachten, dienen der intensiven Befassung mit der vorliegenden Frage- stellung. Worum geht es, was und wer steht im Mittelpunkt des Interesses? Welche Erfahrungen sollen adressiert und verbessert werden? Wie kann ich möglichst viel über und von den Adressaten erfahren? Hier reicht es nicht, im Internet oder in Bibliotheken zu recherchieren und wissenschaftliche Studien zu konsultieren. So wurde beispielsweise an die HPI School of Design Thinking von der Berliner Gefängnisverwaltung die Frage herangetragen, ob es Sinn ergebe, Häftlingen, die kurz vor der Entlassung stehen, beschränkten Zugang zum Internet zu gewähren. Die Recherchen dazu fanden natürlich direkt im Gefängnis statt. Viele Gespräche mit Häftlingen, Justizvollzugsbeamten, Sozialarbeitern und der Gefängnis- leitung waren nötig, um sich ein umfassendes Bild von der Problemlage verschaffen und dann den dritten Schritt gehen zu können. Hier galt es, einen klaren Standpunkt zu definieren, den Point of View, der die Startrampe bietet für die Ideenfindung, den vierten Schritt im Design-Thinking-Prozess.

Dieser Schritt findet im Workspace statt. Dabei tragen die Teilnehmer mithilfe verschiedener Brainstorming-Methoden möglichst viele und möglichst wilde Ideen zusammen. So ent- stehen in kurzer Zeit schon einmal hunderte von Vorschlägen, die alle auf Klebezetteln auf dem Whiteboard landen und dann
sortiert und geclustert werden müssen. Im erwähnten Gefängnisprojekt hingen über 100 Ideen am Board und einige von diesen signalisierten, dass es gar nicht so sehr um das Internet ging, als vielmehr um Informationsflüsse im Gefängnisalltag allgemein.

Eine Handvoll der besten Ideen werden ausgewählt, um in der fünften Phase des Prozesses – dem Prototying – in ein begreifbares Modell umgesetzt zu werden. Ein Prototyp kann ein physisches Produkt sein, analog dem Architektur-Modell bei der Planung eines Gebäudes. Es kann aber auch eine gespielte Szene oder ein animiertes Video sein. Hier geht es noch nicht um einen vollfunktionalen Prototypen, vielmehr ist es hier wichtig, mit möglichst wenig Aufwand die Idee so vorzustel- len, dass sie anderen Menschen schnell in ihren Wesenszügen präsentiert werden kann.

Dies ist wichtig für den sechsten und letzten Schritt – das Testing. Der Prototyp wird den möglichen Nutzern präsentiert und man spielt durch, wie es wäre, wenn es dieses Produkt oder diese Dienstleistung schon geben würde. Die Rückkopp- lungen, die das Team aufgrund des Testlaufs erhält, bilden die Grundlage für ein erneutes Durchlaufen des Prozesses zur Optimierung der Idee.

Die Wirkung von Design Thinking: Agile Lern- und Arbeitskultur

Auch wenn die Beschreibung des dritten Kernelementes den meisten Raum einnimmt, müssen die beiden anderen mit der gleichen Relevanz behandelt werden. Und alle drei sind hochrele- vant für die Veränderungsprozesse, die Unternehmen und Orga- nisationen im Rahmen der digitalen Transformation durchlaufen. Wie arbeitet man zusammen, wo arbeiten Menschen und welche Prozesse nutzen sie dabei? Diese Fragen stellen sich in der digi- tal vernetzten Welt neu und müssen daher erneut beantwortet werden. Die Antworten, die Design Thinking bereithält, führen bei konsequenter Umsetzung zu einer agilen Arbeitskultur. Und damit unterscheidet sich Design Thinking von allen anderen agilen Frameworks: Es geht bei Design Thinking nicht nur um einen neuen methodischen Ansatz, es geht im Kern um die Entwicklung einer agilen Lern- und Arbeitskultur.

Dies wird deutlich, wenn man sich die in den vergangenen Jahren rasant angestiegene Zahl der Unternehmensworkshops am Hasso-Plattner-Institut anschaut. Hier steht immer weniger Produkt- oder Dienstleistungsinnovation im Vordergrund. Es geht den meisten Teilnehmern um nachhaltige systemische Änderun- gen in der Unternehmensorganisation, die mit Design Thinking ganzheitlich angegangen werden können.
Aber auch in der internationalen Bildungslandschaft halten zunehmend vernetzte Denk- und Handlungsweisen Einzug.

So treffen sich neben den Design Thinking Schools in Stanford und Potsdam auch in Sao Paulo, Paris, Stockholm, Kapstadt, Kuala Lumpur, Peking und Sydney Architekten, Informatiker, Mediziner, Juristen, Designer, Maschinenbauer, Psychologen, Betriebswirte und viele andere Disziplinen, um gemeinsam in kleinen gemischten Gruppen an der Lösung komplexer Fragestellungen zu arbeiten.


Fallbeispiel: Kulturwandel bei Bosch

Eines der spannendsten Beispiele ist derzeit das Unternehmen Bosch, mit circa 410 000 Mitarbeitern einer der größten Arbeitsgeber in Deutschland und weltweit bekannt für beste Ingenieurleistungen.

Elf Geschäftsführer verantworten 16 Geschäftsbereiche, darunter BSH Hausgeräte, Car Multimedia, Thermotechnology, Packaging Technology und Power Tools. Mit einigen seiner Bereiche ist Bosch welt- weit größter Anbieter: Bosch Power Tools ist ein weltweit führender Anbieter von Elektrowerkzeugen, und Automotive einer der größten Automobilzulieferer weltweit.

Die Führungsetage von Bosch mit dem Vorstandsvorsitzenden Volkmar Denner an der Spitze hat sich schon vor einigen Jahren den Kulturwandel als oberste Priorität gesetzt. »Während viele noch glauben, dass die Vernetzung ein rein technisches Thema ist, haben wir längst verstanden, dass sie mit einer tiefgreifenden Kulturver- änderung im Unternehmen einhergehen muss«, meinte er in einem Handelsblatt- Beitrag 2018. Und mit dieser Kulturver- änderung hat der Konzernvorstand schon früh begonnen.

Bereits 2011 rief Denner, der Bosch konsequent auf die vernetzte Welt ausrichtet, den Bereich User Experience ins Leben, der in den letzten Jahren von Geschäftsführungsmitglied Uwe Raschke aufgebaut wurde. Der 60-jäh- rige Familienvater, der vor über 30 Jah- ren als Trainee bei Bosch begann, ist seit 2008 Geschäftsführer von Bosch und verantwortet unter anderem den Unternehmensbereich Konsumgüter, zu dem Elektrowerkzeuge und Haushaltsgeräte gehören.

Zusammen mit seinen Leitungskollegen betreibt er seit einigen Jahren einen Erneuerungsprozess, wie er in großen Unternehmen noch selten anzutreffen ist. Es geht hier nicht nur um den forcierten globalen Wettbewerb, dem nur mit stetiger Produktinnovation und starken Investitionen in Forschung und Entwicklung begegnet werden kann. Hier wird auch sehr intensiv über Führungskultur, organisationalen Wandel und nachhaltige Vernetzung gesprochen. »Ich komme noch aus der Generation Befehl und Gehorsam«, so Raschke zum Autor in einem Gespräch während eines Führungskräfteworkshops, »aber wie kommen wir von dieser eher militärischen Organisationsform hin zu einer, die der neuen, vernetzten Welt entspricht, aber trotzdem noch große Organisationen führen lässt?« Wie ist es um den Raum für Abweichler im Unternehmen bestellt? Wie wird künftig mit Richtlinienkompetenz umgegangen? Und wie kann Freiwilligkeit die Arbeit stärker prägen? »Vieles, was wir, die Generation Befehl und Gehorsam, noch akzeptiert haben«, meint Raschke, »wird von den jungen Generationen weder gewollt noch akzeptiert. Wir brauchen eine andere Qualität von starken Führungskräften mit strategischer Kompetenz, Ausbildungskompetenz und Lust am Coaching, die aber auch viel besser loslassen können, als wir das gelernt haben.«

Bosch Power Tools hat über viele Jahre eine der höchsten Innovations- raten im Konzern. Das förmliche Sie hört man seit Langem nicht mehr, Krawatten sind seit vielen Jahren passé, wie auch der Rest von Bosch seit einiger Zeit die Krawattenpflicht abgeschafft hat. Nutzerzentrierte Designprozesse wurden initiiert und viele Mitarbeiter in Design-Thinking-Workshops geschult. Eine Reihe von Mitarbeitern ließ sich zu Design-Thinking-Coaches ausbilden und interne Schulungsprozesse wurden in Gang gesetzt.

Bonusmodelle auf dem Prüfstand

Und noch etwas anderes wurde in Angriff genommen, das sehr stark den Kulturwandel bei Bosch hin zu einer ver- netzten Denk- und Arbeitskultur bewegt hat: die Bonuszahlung. Am 1. Januar 2016 führte Bosch weltweit ein neues Bonusmodell ein und verzichtet seither bei Führungskräften auf die Incenti- vierung individuell vereinbarter Ziele – individuelle Zielvereinbarungen wurden insgesamt abgeschafft. Stattdessen erhalten die Führungskräfte einen Bonus, der den weltweiten Erfolg der Bosch-Gruppe und den Erfolg der Ein- heit, in der sie arbeiten, gleichermaßen berücksichtigt.

Damit war Bosch das erste große Unternehmen in Deutschland, das sich radikal abwendet von der individualisierten Wettbewerbskultur hin zu einer mehr auf intrinsische Motivation setzenden Kultur der Zusammenarbeit.

Cross-funktionale Teams in inspirierenden Arbeitsumgebungen

Aber da mit einem veränderten Incentivierungsmodell allein der Kulturwandel noch nicht vollzogen ist, wurden weitere wichtige Veränderungen angegangen, vorab im Bereich Powertools. Mitarbei- ter wurden gebeten, über ihre Arbeits- umgebungen nachzudenken und diese nach ihren Bedürfnissen umzugestalten. Dies ging einher mit der Frage, wie Arbeitsprozesse und Organisations- struktur in der Zukunft aussehen sollten. Auch hier gab es kein Top-down-Verfahren, sondern den Aufruf in den Bereich, gemeinsam mit dem Betriebsrat über nötige Veränderungen nachzudenken und diese vorzustellen.

Für diese Planungsphase wurde ein zeitlicher Freiraum gewährt und man begegnete sich im Design-Thinking- Modus.

Das Ergebnis: eine neue Organisationsstruktur, die sich wegbewegt vom tradierten Silo-Modell hin zu einem Modell mit kleinen, cross-funktionalen Teams, die für einen längeren Entwicklungszeitraum zusammenarbeiten. Kommt man heute nach Leinfelden bei Stuttgart zu Bosch Power Tools, so findet man in den Büroetagen eine Reihe von kleinen Teams in neu gestalteten, offenen Arbeitsum- gebungen mit Kreativräumen, Prototyping-Werkstätten, Kaffeeküchen und Ruheräumen. Interessanter Nebeneffekt der Neuorganisation: von den sieben Hierarchieebenen, die es vorher gab, sind noch fünf übrig geblieben. Zwei der Ebenen haben sich als hinderlich für die agile Umgebung herausgestellt und sind verschwunden. Die Mitarbeiter sind nicht weg, sie sind in neuen Funktionen in den Teams unterwegs.

Veränderung der Organisationsstruktur von Bosch (Grafik: Bosch)


Der kulturprägende Dreiklang

Das Beispiel Bosch zeigt eindrucksvoll, dass es nicht die Einführung einer neuen Methode war, die zu diesen massiven Änderungen geführt hat. Vielmehr war es das Zusammenspiel der drei Kernelemente des Design Thinking, das behutsam und rücksichtsvoll in Gang gesetzt werden muss, und das mittel- und langfristig zu einer deutlich kollegialeren Struktur bei gleichzeitiger Beschleunigung der Entwicklungs- und Entscheidungsprozesse führt. Es ist dieser kulturprägende Dreiklang des Design Thinking, der Antworten auf die drängenden Fragen liefert, die uns die digitalen Transformationsprozesse stellen.

Design Thinking ist vom Innovationsmotor zum Kulturtransformator geworden.

Autorensteckbrief

Professor Ulrich Weinberg leitet seit 2007 die School of Design Thinking am Hasso-Plattner-Institut in Potsdam.In seinem Buch »Network Thinking – Was kommt nach dem Brockhaus-Denken?« fordert er zu radikal neuem Denken in Bildung und Wirtschaft auf.

Literatur
Brown, T. (2009): Change by Design: How Design Thinking Transforms Organizations and Inspires Innovation. New York: Harper Collins Publishers.
Hüther, G. (2011): Was wir sind und was wir sein könnten. Ein neurobiologischer Mutmacher. Frankfurt: Fischer.
Kelley, D. und T. Kelley (2013): Creative Confidence. Unleas- hing the creative potential within us all. New York: Crown Business.
Laloux, F. (2014): Reinventing Organizations. A guide to crea- ting organizations inspired by the next stage in human con- sciousness. Brussels: Nelson Parker. Martin, R. L. (2009): The Design of Business. Why design thinking is the next competitive advantage. Boston: Harvard Business Review Press.
Meinel, C.; Weinberg, U. und T. Krohn (2014): Design Thinking Live. Hamburg: Murmann Publishers.
McChrystal, G. S.; Collins, T.; Silverman, D. und C. Fussell (2015): Team of teams: New rules of engagement for a complex world. New York: Penguin.
Mutius, B. von (Hrsg.) (2008): Die andere Intelligenz. Wie wir morgen denken werden. (3. Aufl.), Stuttgart: Klett-Cotta.
Spiegel, P. (2015): WeQ – more than IQ. Abschied von der Ich-Kultur. München: oekom.
Weinberg, U. (2015): Network Thinking. Was kommt nach dem Brockhaus-Denken? Murmann Publishers.

Aufmacherbild / Quelle / Lizenz
https://pixabay.com/de/illustrations/zahnr%C3%A4der-getriebe-arbeit-funktion-2020555/

ISBN 978-3-593-51100-9 Print

ISBN 978-3-593-44213-6 E-Book (PDF)

Das vorliegende Werk liegt als E-Book-Ausgabe im Open Access vor und ist unter der DOI 10.12907/978-3-593-44123-6 registriert.

Der Text dieser Publikation wird unter der Lizenz Creative Commons Namensnennung – Keine Bearbeitungen 4.0 International (CC BY-ND 4.0) veröffentlicht. Den vollständigen Lizenztext finden Sie unter: https://creativecommons.org/licenses/by-nd/4.0/legalcode.de

Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die den Rahmen der CC BY-ND 4.0 Lizenz überschreitet ist ohne Zustimmung des Verlags unzulässig. Das gilt insbesondere für die Bearbeitung und Übersetzungen des Werkes.

Trotz sorgfältiger inhaltlicher Kontrolle übernehmen wir keine Haftung für die Inhalte externer Links. Für den Inhalt der verlinkten Seiten sind ausschließlich deren Betreiber verantwortlich.

Copyright © 2019 Campus Verlag GmbH, Frankfurt am Main. Alle deutschsprachigen Rechte bei Campus Verlag GmbH, Frankfurt am Main.

Umschlaggestaltung: Oliver Schmitt

Umschlagmotive und Illustrationen: Dr. Franziska Schwarz, scivisto Innengestaltung und Satz: Oliver Schmitt

Gesetzt aus den Schriften Gotham, BrixSans und der Walls Korrektorat: Diana Schmid, Nürnberg

Druck und Bindung: Beltz Grafische Betriebe GmbH, Bad Langensalza Printed in Germany

www.campus.de

Fünf Beispiele, wie die Cloud das Drucken in Unternehmen optimieren kann

Autor: Hartmut Rottstedt, Geschäftsführer Deutschland, Österreich und Schweiz, Lexmark

„Cloud First“ lautet die Devise vieler Unternehmen auf ihrem Weg durch die digitale Transformation. Cloud-Infrastrukturen wachsen daher rasant. Das letzte Quartal 2018 schlossen Anbieter von Cloud-Infrastrukturen weltweit mit zweistelligem Wachstum ab (im Durchschnitt 28 Prozent) – so das Ergebnis der Analysten von IDC. Eine Entwicklung, die sich in den nächsten Jahren voraussichtlich fortsetzen wird. Konkret soll die Cloud-IT-Infrastruktur weiteren Untersuchungen von IDG zufolge mit einer jährlichen Wachstumsrate von 10,9 Prozent über einen Zeitraum von fünf Jahren ansteigen, und bis 2023 einen Wert von 99,9 Milliarden US-Dollar erreichen.

Dies ist ein Gastbeitrag von Hartmut Rottstedt, Geschäftsführer Deutschland, Österreich und Schweiz, Lexmark

Drucken ist und bleibt ein wesentlicher Bestandteil einer Unternehmens-IT. Mit dem Einzug der Cloud verändert sich allerdings die Art und Weise des Druckens. Für IT-Abteilungen bedeutet dies, dass sie Druckumgebungen fest in ihre digitale Strategie einbeziehen können und müssen. Denn die Vorteile liegen auf der Hand: Durch das Hosting der Druckinfrastruktur in der Cloud können Unternehmen ihre IT-Infrastruktur, ihren Arbeitsaufwand sowie ihre Kosten reduzieren und dabei gleichzeitig ein höheres Maß an Benutzerfreundlichkeit gewährleisten. Im Folgenden illustriere ich an fünf Beispielen, wie die Cloud das Drucken in Unternehmen verbessern kann:

1. Optimierte Einkaufs- und Akquisitionsmodelle

Da immer mehr Unternehmen ihre Daten und Anwendungen in die Cloud verlagern, wird die Beschaffung von IT-Produkten und -Technologien in Form von „as-a-Service“-Subscription-Modellen immer beliebter. Deloitte Global schätzt, dass Unternehmen bis zum Jahr 2022 die Hälfte ihres IT-Budgets für Subscription-Services ausgeben werden.

Anstatt Drucker und lokale Server zu beschaffen und diese zu warten, können Druckumgebungen nun vollständig in der Cloud verwaltet und über ein Subscription-Modell zur Verfügung gestellt werden. Kunden zahlen in diesem Modell nur für die Druckkapazität. Dies reduziert die Investitionskosten und Unternehmen können ihre Druckkapazität nach Bedarf skalieren. Ein solcher Ansatz erspart darüber hinaus auch Zeit und Kosten im Anschaffungsprozess.

2. Vereinfachtes IT-Management und voller Fokus auf Digitalisierung

Die Aus- und Belastung von IT-Teams ist kontinuierlich hoch. Spiceworks zufolge verbringen IT-Teams derzeit den größten Teil ihrer Arbeit immer noch mit der Bereitstellung oder Wartung von Hardware und Netzwerken. Durch die Verlagerung von Drucklösungen in die Cloud ergeben sich einige Entlastungen für das IT-Management: Da die Drucker gestellt werden und im Besitz des CPIaaS-Anbieters verbleiben, müssen sich Unternehmen nicht mehr selbst um die Support-Infrastruktur, wie lokale Druckserver, Treiber und Nutzerverwaltung, kümmern.

IT-Mitarbeiter können sich durch diese Entlastung damit voll und ganz auf die Digitalisierung im eigenen Unternehmen konzentrieren. Großes Augenmerk sollte auch auf die Entwicklung ausgeklügelter Sicherheitsvorkehrungen, um der zunehmenden Gefahr von Cyberattacken begegnen zu können, gelegt werden sowie auf die Recherche innovativer neuer Produkte, Lösungen und Apps.

3. Erhöhte Sicherheit

Durch den Wegfall von Druckservern reduziert sich die Anzahl physischer IT Access Points. Die Technologie für die Druck-Authentifizierung steuert den Zugriff und senkt somit das Risiko, dass sensible Informationen in falsche Hände gelangen. Anstatt Dokumente über einen Druckserver an ein bestimmtes Druckgerät zu senden, werden Dokumente in die Cloud übertragen, wo sie gehalten werden, bis sich ein Nutzer am Drucker authentifiziert. Durchdachte „As-a-service“-Lösungen für die Druckinfrastruktur sind in der Regel standardmäßig mit einer fortschrittlichen Authentifizierungstechnologie ausgestattet. Diese stellt sicher, dass Nutzer nur über einen Benutzernamen und ein Passwort oder eine Smartcard auf das Gerät zugreifen können. Damit wird verhindert, dass eine nicht-autorisierte Person ein Dokument entnimmt. Auch Netzwerkordner und Anwendungen werden so vor unbefugtem Zugriff geschützt.

Quocirca-Umfragedaten zeigen, dass 44 Prozent der Unternehmen mit einer zwar verwalteten, aber Hersteller-gemischten Umgebung bereits mehr als einmal einen druckbezogenen Datenverlust zu verzeichnen hatten. Das bedeutet, dass Unternehmen, die Cloud-Print-Lösungen implementieren, in der Regel von einer brandneuen Palette von Geräten eines einzigen Herstellers profitieren. Denn so wird die die Druckerflotte vereinheitlicht und trägt zu einem einfacheren Management und einer höheren Sicherheit bei.

4. Maximierte Betriebszeit und Benutzerfreundlichkeit

Internet-of-Things- (IoT-) Tools, wie Predictive Services, oder eine automatisierte Nachbestellung von Verbrauchsmaterialien maximieren die Laufzeit der Geräte. Probleme können erkannt und behoben werden, noch ehe etwaige Störungen auftreten. Nutzer profitieren auf diese Weise von einer gleichbleibend hohen Verfügbarkeit der Drucker. Der IoT-Charakter der via Cloud verwalteten Druckinfrastruktur bietet zusätzliche mobile Funktionen – beispielsweise für Anwender, die sich innerhalb eines Unternehmens zwischen verschiedenen Standorten bewegen und mobiles Drucken nutzen.

5. Standortübergreifende Einblicke in Perfomance und Nutzung

Echtzeitdaten über die Nutzung, das Gerät, die gesamte Flotte und Service Level Agreements (SLAs) bieten dem IT-Management einen vollständigen und standortübergreifenden Einblick über die gesamte Druckinfrastruktur im Unternehmen. IT-Abteilungen können auf dieser Grundlage Möglichkeiten zur Produktivitätssteigerung erkennen, da sie präzise Details zur Gerätenutzung und zum Kosteneinsparungspotenzial erhalten. Langfristig bedeutet das eine im Ergebnis höhere Produktivität der einzelnen Nutzer sowie eine gesteigerte betriebliche Effizienz in allen Druckinfrastrukturen.

Fazit

IT-Abteilungen weltweit suchen nach Möglichkeiten, den Verwaltungsaufwand in der IT zu reduzieren – sowohl aus Kosten- als auch aus Betriebsgründen. Obwohl die Entscheidung zwischen Investitions- und Betriebskostenmodellen im Hinblick auf die Beschaffung von IT keine neue Entwicklung darstellt, ist der Einkauf von IT durch operative Modelle in der Cloud heute einfacher als je zuvor. In letzter Konsequenz bedeutet dies, dass sich die Art und Weise, wie Produkte und Dienstleistungen genutzt werden, verändert – vor allem hin zu neuen „Product-as-a-Service“-Geschäftsmodellen, die sich auf zuverlässige Ergebnisse mit vorhersehbaren SLAs zu angemessenen Kosten stützen.

Zusammenfassend lässt sich daher feststellen, dass Lösungen wie „Cloud Print Infrastructure as-a-Service“ dazu beizutragen, die hohen Ziele von IT-Organisationen weltweit verlässlich zu erfüllen, so dass diese sich verstärkt auf das Vorantreiben der Digitalisierung fokussieren können.

Weitere Informationen unter:
https://www.lexmark.com/de_de/services/managed-print-services.html

Bildquelle / Lizenz: Lexmark

Future of Work Initiative gegründet

Anlässlich der Messe Zukunft Personal Europe haben der Veranstalter und führende Vertreter der Unternehmen Design Offices, Detecon, Haufe, IBM und TriCAT die Gründung der „Future of Work Initiative“ bekannt gegeben. Ziel der Initiative ist es, praxisnahe Handlungsanweisungen mit einem realistischen Blick zu entwickeln und im Herbst 2020 als Manifest vorzustellen.

„Über Future of Work wird viel gesprochen und geschrieben. Die Lücke, die wir schließen wollen, ist der realistische Blick auf das Konzept und die Vermittlung konkreter Handlungsempfehlungen, insbesondere vor dem Hintergrund der sich abkühlenden wirtschaftlichen Gesamtlage“, erläutert Ralf Hocke, Mitgründer und aktuell Sprecher der Initiative sowie CEO von spring Messe Management, bei der offiziellen Gründung auf der Zukunft Personal Europe im Beisein von Bundesarbeitsminister Hubertus Heil.

„Die Initiatoren teilen die Überzeugung, dass die Umsetzung von Future of Work einen wesentlichen Beitrag zur Zukunftssicherung von Unternehmen darstellt, die in einer komplexen und unsicheren Welt immer schneller auf sich wandelnde Kundenbedürfnisse reagieren müssen“, so Hocke weiter. Jedes Unternehmen und jeder Arbeitsplatz sei von der Transformation betroffen. Umso wichtiger seien eine partizipative Führungskultur sowie die digitale Employability, für die die Qualifizierung der Mitarbeiterinnen und Mitarbeiter elementar sei. Zugleich betonte Hocke, dass die Antwort dabei für jedes Unternehmen individuell sei.

Bundesarbeitsminister Hubertus Heil begrüßte daher insbesondere den Ansatz der Initiative, wissenschaftliche Erkenntnisse mit unternehmerischer Praxis zu verbinden: „Die Gestaltung der Arbeitswelt ist eine Gemeinschaftsaufgabe für Politik, Wirtschaft, Wissenschaft und Gesellschaft, die mit vielen Chancen, aber auch kritischen Fragestellungen einhergeht. Beides gilt es, mutig und engagiert zu diskutieren und in praktische Handlungsoptionen einfließen zu lassen“, so Heil.

Untersuchung zur realistischen Betrachtung von Future of Work

Als erstes Projekt hat die Initiative eine qualitative Untersuchung beauftragt, die die Bedeutung von Future of Work vor dem Hintergrund eines sich abzeichnenden wirtschaftlichen Abschwungs beleuchtet. Auf Basis von zehn Interviews mit Experten aus der HR Szene resümiert Prof. Stephan Fischer, Studiendekan Human Resources Management und Direktor des Instituts für Personalforschung an der Hochschule Pforzheim, ein Kernergebnis: „Das Zurückgehen zu klassischen Modellen und Strukturen wird in einer wirtschaftlichen Krise nicht erfolgreich sein. Stattdessen wird das Gesamtkonzept der Future of Work unter Berücksichtigung verschiedener Bedingungen in Zeiten wirtschaftlichen Abschwungs an Relevanz gewinnen.“ Ob sich Unternehmen erfolgreich auf Future of Work einstellen können, hänge entscheidend von der Führungs- und Unternehmenskultur ab, ergänzte Prof. Fischer: „Besonders Modelle, die ein Miteinander auf Augenhöhe propagieren, werden hier erfolgreich sein.“

Entwicklung eines konkreten Manifests zur Umsetzung von Future of Work

Neben der wissenschaftlichen Untersuchung haben die Gründungsmitglieder zehn Thesen mit praxisnahen Handlungsanweisungen zur Umsetzung von Future of Work entworfen, die in den nächsten zwölf Monaten in verschiedenen interaktiven Formaten unter anderem auf der Konferenz Digital Mind Change (24. Oktober 2019, BMW Welt München) und der Zukunft Personal Series in Hamburg, Stuttgart und Köln diskutiert werden.

Weitere Informationen unter:
https://newmanagement.haufe.de/themen/future-of-work

Industrial IoT erreicht die Fertigungshalle

Mit Lumada Manufacturing Insights kündigt Hitachi Vantara eine Suite von IIoT-Lösungen (Industrial IoT) an, mit der Fertigungsunternehmen auf ihren Daten basierende Transformationsvorhaben umsetzen können. Die Lösung lässt sich in bestehende Anwendungen integrieren und liefert aussagekräftige Erkenntnisse aus Daten, ohne dass Fertigungsanlagen oder -anwendungen durch einen „Rip-and-Replace”-Wechsel kostspielig ersetzt werden müssen. Lumada Manufacturing Insights optimiert Maschinen, Produktion und Qualität und schafft dadurch die Basis für digitale Innovationen, ohne die Manufacturing 4.0 unmöglich wäre. Die Plattform unterstützt eine Vielzahl von Bereitstellungsoptionen und kann On-Premise oder in der Cloud ausgeführt werden.

„Daten und Analytics können Produktionsprozesse modernisieren und transformieren. Aber für zu viele Hersteller verlangsamen bestehende Legacy-Infrastrukturen und voneinander getrennte Software und Prozesse die Innovation“, kommentiert Brad Surak, Chief Product und Strategy Officer bei Hitachi Vantara. „Mit Lumada Manufacturing Insights können Unternehmen die Basis für digitale Innovationen schaffen und dabei mit den Systemen und der Software arbeiten, die sie bereits im Einsatz haben.“ 

Weitere Informationen unter:
http://www.hitachivantara.com

Quantencomputing vor Marktreife

Die Studie von Reply, die mit der Trendplattform SONAR realisiert wurde, zeigt den Reifegrad von Quantum Computing. Zudem überprüft die Studie, wie weit der kommerzielle Einsatz von Quantencomputern bereits fortgeschritten ist.

Quantencomputer sind in der Lage, Rechenprozesse von Jahren auf Stunden oder Minuten zu reduzieren und Probleme zu lösen, bei denen selbst die fortschrittlichsten konventionellen Computer an ihre Grenzen stoßen. Vor allem in den Bereichen Machine Learning, Künstliche Intelligenz und Big Data verspricht Quantum Computing enorme Fortschritte. Die von der Trendplattform SONAR analysierten Artikel sowie die Zunahme der Patentanmeldungen in diesem Bereich zeigen, wie die durch Quantum Computing ermöglichten disruptiven Lösungen den Weg für die Entwicklung von Angeboten in verschiedenen Feldern geebnet haben: Dazu gehören Computer Science, Cybersecurity, Finanzdienstleistungen und Logistik.

Computer Science

Der Trend in Richtung Quantencomputer wird in der Informatik seit 2013 kontinuierlich stärker. Die Analysten von Morgan Stanley prognostizieren, dass sich der High-End-Quantencomputer-Markt bis 2025 fast verdoppeln und zehn Milliarden Dollar pro Jahr erreichen wird. Die Entwicklung von Quantencomputern erfährt vor allem seit jenem Zeitpunkt einen starken Aufschwung, an dem sich die Technologieriesen verstärkt des Themas annahmen. Vor allem die Ankündigungen und Markteinführungen von IBM sorgten in Medienkreisen für besonderes Aufsehen.

Cybersecurity

Die Leistungsfähigkeit von Quantencomputern übersteigt die aktuellen Möglichkeiten bei weitem und führt damit geradewegs in eine neue Ära des Wissens. So begrüßenswert das auf der einen Seite ist – die dahinterstehenden Potenziale können auch eine große Bedrohung für die Cybersicherheit darstellen. Das bedeutet: Der Schutz kommerzieller Transaktionen sowie Datenübertragungen muss teilweise völlig neugestaltet werden. Die Quanten-Cybersecurity begegnet dieser Herausforderung mit anspruchsvollen Maßnahmen wie der Quantenschlüsselverteilung, mit quantensicheren Algorithmen und so genannten Quantum-Zufallszahlengeneratoren. Keine Regierung und kein Unternehmen kommt um die Entwicklung „quantensicherer“ Lösungen herum. Dabei steht China in diesem Wettlauf mit Initiativen wie dem Micius-Satelliten oder dem Aufbau einer nationalen Netzwerkinfrastruktur an vorderster Front.

Finanzdienstleistungen

Auch bei Finanzdienstleistern stößt Quantum Computing durch Anwendungsoptionen von der Portfolio-Optimierung über die Betrugserkennung, von neuen Zahlungssystemen bis hin zum Hochfrequenzhandel auf starkes Interesse. In den letzten Jahren hat die Investitionstätigkeit stetig zugenommen: Branchengrößen wie Goldman Sachs, RBS oder Citigroup investieren bereits in Quantum Computing-Technologie und stellen gezielt Talente ein, um der Konkurrenz einen Schritt voraus zu sein.

Logistik und Transport

Ähnliches gilt für die Logistik- und Transportbranche. Hier nutzen viele Unternehmen bereits heute die Möglichkeiten von Quantum Computing. Die Ankündigung von Daimler und Honda von Anfang 2018, IBM-Quantencomputer kaufen zu wollen, ist ebenso ein Indiz für ein schlagartig gesteigertes Interesse wie die Investitionserhöhungen vieler Luft- und Raumfahrtunternehmen in die Forschung zur Rolle des Quantum Computing in ihrer Branche. Zuletzt hatte Volkswagen im Januar 2019 den Einsatz von Quantum Computing im Verkehrsmanagement angekündigt.
Filippo Rizzante, CTO bei Reply kommentiert den neuen Trendreport: „Wir werden viele Innovationen in der IT sehen, die von Quantencomputern inspiriert sind. Unternehmen haben einen regelrechten Wettlauf bei der Entwicklung von Quantencomputing-Algorithmen gestartet, um Probleme in den Griff zu bekommen, die bislang als unlösbar galten. Hybridsysteme erweitern die IT in bestimmten Problembereichen um Quanten-Computing-Funktionen. Nicht zuletzt setzt Quantum Computing aktuellen Verschlüsselungsansätzen ein Ende und wird zu einem beispiellosen Aufstieg der Künstlichen Intelligenz führen.“

Infografik zum aktuellen Stand des Quantencomputings

Bildquelle / Lizenz: Photo by Alina Grubnyak on Unsplash

Hindernisse in der digitalen Transformation

Unternehmen verbessern sich 2019, es bleiben aber weiter große Nachholbedarfe

Wipro Limited, ein führendes global tätiges Unternehmen im Bereich Informationstechnologie, Consulting und Geschäftsprozess-Services, hat die Ergebnisse einer neuen Umfrage bekannt gegeben, die von Wipro Digital, dem Unternehmensbereich für digitale Services und Beratung, in Auftrag gegeben wurde.  Für die von Coleman Parkes Research im April 2019 durchgeführte Umfrage wurden 1.400 Führungskräfte auf der ganzen Welt zu den digitalen Transformationsprogrammen ihrer Unternehmen und Hindernissen für ihren Erfolg befragt. Unter den 400 Teilnehmern aus der EU befanden sich 200 Führungskräfte aus Deutschland, Österreich und der Schweiz (D-A-CH). Laut der Studie kann die digitale Transformation auf Unternehmen zuerst überwältigend erscheinen, wobei Personalfragen die größte Hürde darstellen. Organisationen, denen es gelingt, die Erwartungen der Mitarbeiter richtig zu managen, die Führungskräfte aufeinander abzustimmen und sicherzustellen, dass die richtigen Partner zusammenarbeiten, werden erfolgreich sein.

Erfreulich: das „Warum“ spielt keine Rolle mehr

Unternehmen verbessern sich 2019 bei der digitalen Transformation

Bei der Umfrage handelt es sich um ein Follow-Up der Studie von Wipro Digital aus dem Jahr 2017, die noch eine Führungskrise bei der digitalen Transformation hervorgehoben hatte. Dagegen herrscht heute weitgehende Einigkeit, dass digitale Transformationsprojekte auf keinen Fall Zeitverschwendung sind. Während vor zwei Jahren nur die Hälfte der befragten Unternehmen erfolgreich bei der Umsetzung ihrer Strategien zur digitalen Transformation waren, zeigt die aktuelle Studie, dass 87 Prozent der deutschen Führungskräfte der Meinung sind, dass ihre Unternehmen erfolgreich im Einklang mit ihren digitalen Transformationsstrategien agieren (Österreich: 76 Prozent; Schweiz: 90 Prozent; weltweit 90 Prozent). 

Darüber hinaus sind weltweit 94 Prozent der Befragten der Meinung, dass in ihren Unternehmen Einigkeit darüber herrscht, was „Digitale Transformation” bedeutet. In Deutschland sind dies 92 Prozent, in Österreich und der Schweiz sogar jeweils 98 Prozent. Im Vergleich dazu gab 2017 jeder vierte ein mangelndes gemeinsames Verständnis von digitaler Transformation als wesentliches Hindernis für den Erfolg an. Diese Diskrepanz deutet darauf hin, dass die Führungskräfte in den letzten zwei Jahren verstanden haben, dass die digitale Transformation jedes Unternehmen betrifft. Die Frage für Führungskräfte ist nicht mehr, ob, warum oder wann sie ein digitales Transformationsprogramm durchführen sollen, sondern wie sie es erfolgreich umsetzen können.

Je länger Projekte der Digitalisierung dauern, desto wahrscheinlicher ist es, dass eine der oben angegebenen Faktoren zum Problem für das gesamte Projekt werden.

Einige Zahlen verdeutlichen den Status der digitalen Transformation in Deutschland

  • Mangelnde Unterstützung der Führungsebene: 54 Prozent der Befragten in Deutschland beklagen sich über mangelnde Unterstützung aus der Führungsebene (Österreich: 42 Prozent; Schweiz: 70 Prozent; weltweit 59 Prozent).
  • Neue Arbeitsweisen schwer zu adaptieren: 60 Prozent deutscher Führungskräfte gaben an, nicht in der Lage zu sein, ihre bestehenden Teams dazu zu bringen, neue Technology, Methoden oder Prozesse zu nutzen oder zu diesen zu wechseln (Österreich: 62 Prozent; Schweiz: 50 Prozent, weltweit 56 Prozent).
  • Bis zum ROI dauert es etwa ein Jahr: In Deutschland sahen nur 13 Prozent messbare Geschäftsergebnisse der digitalen Transformation in weniger als sechs Monaten (Österreich: 18 Prozent; Schweiz: 24 Prozent; weltweit 20 Prozent), 29 Prozent sahen diese innerhalb von sechs bis zwölf Monaten (Österreich: 30 Prozent; Schweiz: 30 Prozent; weltweit 30 Prozent), und 56 Prozent gaben an, dass es ein bis drei Jahre dauerte (Österreich: 46 Prozent; Schweiz: 46 Prozent; weltweit 49 Prozent). 
  • Wachstum ist der große Motivator: Auf die Fragen nach den wichtigsten Treibern für die digitale Transformation gaben die meisten Befragten Ziele an, die mit höherem Wachstum verbunden waren: Die Erschließung neuer Märkte, Umsatzsteigerung, mehr Agilität und schnellere Markteinführungen wurden ebenso genannt wie Kostensenkungen. Deutsche Unternehmen sind der Meinung, dass die Erschließung neuer Märkte der wichtigste Treiber der digitalen Transformation ist.
  • Von Mehrkosten überrascht: 61 Prozent der deutschen Unternehmen glauben, dass sie sich nach weiteren Finanzierungsquellen für digitale Transformationsprogramme innerhalb des Unternehmens umsehen müssen (Österreich: 56 Prozent, Schweiz: 40 Prozent; weltweit 55 Prozent).
  • Technologie als Bremse: Je länger ein Unternehmen eine digitale Transformationsphase durchläuft, desto wahrscheinlicher ist es, dass die Technologie hier Umsetzung bremst. 
  • Es ist nie zu spät, um zu beginnen: 97 Prozent der Befragten in Deutschland glauben, dass Unternehmen, die ihre digitale Transformation später als andere begonnen haben, immer noch eine Chance haben, ihre Konkurrenten langfristig zu schlagen (Österreich: 78 Prozent, Schweiz: 86 Prozent; weltweit 87 Prozent).

Weitere Informationen unter:
http://2019transformationsurveyde.wiprodigital.com/

Bildquelle / Lizenz Aufmacher: Photo by Jordan Benton from Pexels

Plattformökonomie demokratisieren: Die leise Revolution über Blockchain

Die Plattformökonomie hat es in hoher Effizienz geschafft, einen zweiseitigen Markt zu kreieren. Amazon, Ebay, AirBnB und Uber bringen Anbieter und Nachfrager zusammen, in dem sie einen zentralen Marktplatz mit hoher Transparenz und reduzierten Transaktionskosten schaffen. Distributed Ledger Technologies (DTLs) wie die Blockchain „überspringen“ nun diese Intermediäre. Die TREND-REPORT-Redaktion sprach mit Prof. Dr. Oliver Gassmann vom Institut für Technologiemanagement an der Universität St.Gallen zu Distributed Ledger Technologien und den möglichen Auswirkungen.

Herr Prof. Gassmann, inwiefern stellen Distributed Ledger Technologies wie die Blockchain eine Gefahr für die derzeitigen Plattformökonomieanbieter dar?
Die Plattformökonomie hat es in hoher Effizienz geschafft, einen zweiseitigen Markt zu kreieren. Amazon, Ebay, AirBnB und Uber bringen Anbieter und Nachfrager zusammen, in dem sie einen zentralen Marktplatz mit hoher Transparenz und reduzierten Transaktionskosten schaffen. Die Basis hierfür hat das Internet geschaffen, die Plattformökonomie sorgt aber dafür, dass eine einmal etablierte Plattform für alle Seiten immer attraktiver wird und damit eine enorme Konzentration stattfindet. Distributed Ledger Technologien (DLT wie Blockchain) hingegen verknüpfen direkt die Anbieter und Nachfrager ohne die Mittelsmänner oder Intermediäre. DLT ermöglichen damit sichere Transaktionen zwischen anonymen Akteuren und sparen damit die oft überzogene Transaktionsgebühr ein.

Die direkte Verknüpfung über z.B. die Blockchain stellt aber gleichzeitig auch eine große Chance dar für die Kundenbeziehung. Genannt seien etwa direkte Verknüpfung, Datensicherheit und nicht zuletzt auch Fairness. Können Sie dies anhand eines Beispiels verdeutlichen?
Dies ist korrekt. Die Technologie stellt Datensicherheit und direkte Verknüpfung sicher. Der Wegfall des dominanten Intermediärs ermöglicht eine fairere Verteilung der Margen. Uber hat keine eigenen Fahrzeuge, keine eigenen Fahrer angestellt, verlangt aber für die Nutzung der Plattform über 20 %, in Berlin bis zu 28,5 % des Umsatzes. Ist dies fair für die Fahrer, welche das gesamte Risiko tragen? Eine dezentrale Plattform über DLT könnte die Fahrgäste direkt mit den Fahrern verbinden, die positiven Marktplatzeffekte könnte man weiterhin aufrechterhalten. Allenfalls würde eine Stiftung oder ein Verein die dezentrale Plattform – Technologie, Schnittstellen, Vermarktung – führen.

Wie sollten sich wertschöpfende Unternehmen aufstellen, um DLTs Raum im Geschäftsmodell zu geben?
DLT wird zwar noch stetig weiterentwickelt, ist aber bereits jetzt verfügbar. Es ist wichtig, das richtige Geschäftsmodell zu entwickeln. Hierzu empfehlen wir Konsortialansätze, bei denen eine Gruppe von Akteuren zusammenspannt, um gemeinsam den Kunden auf seiner Customer Journey noch besser zu bedienen. Wichtig ist dabei die Orchestrierung der Akteure hin zu einem überragenden Nutzenversprechen für den Kunden. Oft findet diese Orchestrierung durch einen externen Player oder einen neu gegründeten Verein statt, um die Neutralität sicherzustellen.

Warum sprechen Sie in diesem Kontext von einer „Demokratisierung von Technologie durch die Blockchain“?
Die Plattformökonomie basiert auf dem Prinzip der wachsenden Grenznutze: Mit jedem weiteren Nutzer oder Anbieter wächst der Wert der Plattform. Eine einmal starke Plattform wächst damit immer weiter, wie Amazon, die in Europa bereits zwischen 42 und 50 % des Umsatzes im ECommerce beherrschen. Damit bestimmt der dominante Intermediär wie Amazon oder Uber weitgehend die Spielregeln und die Verteilung der Margen. Blockchain und dezentrale Plattformen können die Marktmacht wieder zu den direkt wertschöpfenden Akteuren zurückgeben. Hier finden eine fairere Verteilung und eine Mitsprache der Akteure statt.

Ist dann die Zeit der großen „Marktplätze“ im Internet vorbei?
Die heutigen Marktplätze werden meines Erachtens noch einige Jahre die Wirtschaft dominieren. Aber es zeichnen sich bereits verschiedene Konsortien ab. Wie auch das Internet-Protokoll TCP/IP benötigt es einige Jahre, bis zur Durchsetzung – dann aber mit disruptivem Potential für verschiedene Industrien.

Sehen Sie bereits Entwicklungen, die DLTs weiterführen?
Es gibt zahlreiche Strömungen in der Weiterentwicklung von DLTs, welche die Probleme Energieeffizienz, Skalierbarkeit, Updates und Performance adressieren. Um Beispiele zu nennen: Polkadot legt Wert auf komplette Offenheit und Interoperabilität, eher die dezentralste Version. Hyperledger, von IBM promoted, geht eher in Richtung eines Hybridmodells. Es ist nicht einfach zu sagen, welches Modell sich durchsetzt. Wir sehen auf jeden Fall in unseren Konsortialprojekten mit Unternehmen wie Siemens, Bosch, VW, EnBW, Osram oder Commerzbank, dass die strategischen Ziele von zentraler Bedeutung sind. Die konkrete Technologie hängt ab von den Anforderungen des Geschäftsmodells, welche an DLT gestellt werden.

Am 5.11.2019 findet der große Blockchain-Roundtable in Zürich statt, www.blockchain-roundtable.ch. Hier werden Geschäftsmodelle und konkrete Nutzen diskutiert und entwickelt.

Oliver Gassmann

Oliver Gassmann ist seit 2002 Professor für Innovationsmanagement an der Universität St. Gallen und leitet das Institut für Technologiemanagement sowie das Global Center for Entrepreneurship & Innovation. Vor seiner akademischen Karriere war Gassmann mehrere Jahre als Forschungsleiter für Schindler tätig. Er ist Gründungspartner von BGW, BMI-Lab und GLORAD sowie Mitglied mehrerer Verwaltungsräte. Als einer der meist zitierten Innovationsforscher publizierte er über 350 Fachpublikationen. Sein Buch ‚Business Model Navigator‘ wurde ein internationaler Bestseller.

Weitere Informationen unter:
https://www.alexandria.unisg.ch/persons/250