Exzellenter arbeiten

Frazier Miller, CMO von Wrike erläutert im Gespräch mit der TREND-REPORT-Redaktion warum eine kollaborative Projektmanagement-Lösung beim Change zum agilen Unternehmen wie ein Katalysator fungiert.

 

Herr Miller, warum sollte man für Projektmanagement entsprechend dafür entwickelte Software nutzen und was dürfen Unternehmen von einer Lösung erwarten?

Viele Kunden kommen zu Wrike, weil sie an einem Punkt angekommen sind, an dem eine übersichtliche Arbeit mit Tabellen und E-Mails nicht mehr möglich ist. Eine Projektmanagement-Software hilft (genau wie z.B. ERP- oder CRM-Software) dabei, alle relevanten Daten in einem System zu sammeln, Arbeitsabläufe zu digitalisieren und Routineaufgaben zu automatisieren.

Das bedeutet: Unternehmen können effizienter arbeiten und ihre Produktion skalieren. Außerdem ist gerade bei Projektarbeit eine transparente Zusammenarbeit, auch über verschiedene Abteilungen hinweg, ein Schlüssel zum Erfolg – das kann mit einer kollaborativen Projektmanagement-Lösung wie Wrike erreicht werden.

 

Welche Vorteile ergeben sich aus der Integration von UC-Funktionen in die Projektmanagement-Software?

Kommunikation findet immer im Kontext statt: Man kann direkt in einer Aufgabe oder einem Projekt Kommentare und Feedback geben. Auch Diskussionen finden direkt in der jeweiligen Aufgabe statt, sodass der gesamte Verlauf eines Projekts oder einer Aufgabe jederzeit nachvollziehbar ist.

Außerdem können Dokumente und Zusatzinformationen als Dateien hochgeladen werden und sind so für alle einsehbar. Integrationen sind ein weiterer Weg, um eine Single Source of Truth zu schaffen – Wrike kann beispielsweise mit Microsoft Teams, Google Hangouts, Slack usw. integriert werden, sodass aus Unterhaltungen direkt umsetzbare Aufgaben erstellt werden können.

 

Was ist das Besondere an Wrike im Vergleich zu den am Markt befindlichen Lösungen?

Datenhosting in der EU: Seit 2016 bieten wir unseren Kunden die Möglichkeit, ihre Daten in der EU zu speichern. Wir haben ein europäisches Rechenzentrum in Amsterdam.
Ganzheitlicher Ansatz: Während viele andere Lösungen sich entweder auf Aufgabenmanagement oder Collaboration konzentrieren, ist Wrike eine Software/Plattform für umfassendes Arbeitsmanagement. Zudem haben wir spezielle Funktionen für Marketing-Teams wie z.B. ein Feature für Prüfung und Freigabe sowie eine Enterprise-Funktion mit zusätzlichen Sicherheitsfunktionen wie Single Sign On und Zwei-Faktor-Authentifizierung.

 

Um in dieser Wirtschaftswelt bestehen zu können, müssen Unternehmen und Führungskräfte auf einem neuen Effizienz-Niveau arbeiten, weiß Frazier Miller.

 

In welchen Schritten würden Sie Projektmanagement-Software in einem Unternehmen einführen?

Change Management ist ein sehr wichtiger Schritt in der Einführung einer neuen Software. Wir unterstützen unsere Kunden mit umfassenden Deployment-Paketen und mit Customer Success Managern, um ihnen dabei zu helfen, die Software für ihre jeweiligen Bedürfnisse aufzusetzen.

Außerdem empfehlen wir unseren Kunden, auf Unternehmensseite Champions festzulegen, die für das Roll-out und die Projekt-Kommunikation zuständig sind. Es ist außerdem essentiell, die Prozesse und Arbeitsabläufe des Teams, der Abteilung oder des Unternehmens klar zu definieren, damit diese in der Software entsprechend dargestellt werden können.

 

Inwieweit kann Projektmanagement-Software bei stark repetitiven Aufgaben unterstützen?

Sie kann dabei helfen, Prozesse wie zum Beispiel den Arbeitseingang zu automatisieren. Mit Anfrageformularen können klare Briefings erstellt werden und eingehende Arbeit direkt zugewiesen werden. Darüber hinaus kann auch die Arbeitsübergabe unterstützt und automatisiert werden, zum Beispiel durch benutzerdefinierte Arbeitsabläufe mit bereits zugewiesenen Personen.

Wenn eine Aufgabe zum Beispiel zur Freigabe an die Finanzabteilung gegeben werden muss, kann dies mittels einer Statusänderung automatisch an die entsprechende Person in der anderen Abteilung zugewiesen werden. Vorlagen helfen außerdem dabei, Zeit einzusparen: Anstatt für wiederkehrende Aufgaben oder Projekte jedesmal das Rad neu zu erfinden, können Vorlagen erstellt werden, die ganz einfach dupliziert und verwendet werden können.

 

Welche wichtigen Erkenntnisse brachte Ihre Studie im Kontext von Automatisierung und KI?

Unsere Studie, der Wrike Digital Work Report 2018, hat gezeigt, dass Unternehmen mehrheitlich entweder keine Automatisierungsstrategie haben oder nur für einzelne Abteilungen. Demgegenüber wünschen sich Mitarbeiter gerade bei Routine-Aufgaben mehr technologische Unterstützung.

Die Teilnehmer unserer Studie sehen in der Automatisierung von Routine-Aufgaben ein großes Potential für die individuelle Produktivitätssteigerung: Mehr als jeder vierte Büroangestellte in Deutschland, Frankreich und Großbritannien könnte nach eigener Einschätzung 25 Prozent mehr pro Woche leisten, wenn entsprechende Technologie bereit stünde. 23 Prozent würden sogar bis zu 50 Prozent mehr leisten. 45 Prozent der Befragten sind ferner überzeugt, dass Automatisierung ihrem Unternehmen einen Wettbewerbsvorteil bringt.

Den Nutzen der Automatisierung für das gesamte Unternehmen schätzt das mittlere Management mit Abstand am höchsten ein: 66 Prozent der Befragten aus dieser Gruppe sind überzeugt, dass Automatisierung ihrer Firma einen Wettbewerbsvorteil bringen würde. Bei den befragten Teamleitern sind es immerhin 55 Prozent, die diesen Wettbewerbsvorteil so deutlich sehen. Die Vorteile und auch Entlastung, die gerade Mitarbeiter mit Personalverantwortung von der Automatisierung erwarten, scheinen also enorm.

 

Stichwort Agilität – welche Wettbewerbsvorteile können Ihre Kunden generieren?

Wir leben in einer neuen Ära der Wirtschaft, der On-Demand Economy. Durch Amazon Prime, Netflix, Uber und co. werden die Erwartungshaltungen an ein personalisiertes und augenblickliches Kundenerlebnis in neue Höhe getrieben – die „Ich will genau das – und zwar sofort“-Mentalität ist die neue Norm.

Fazit ist: Um in dieser Wirtschaftswelt bestehen zu können, müssen Unternehmen und Führungskräfte auf einem neuen Effizienz-Niveau arbeiten. Und das bedeutet, dass sich auch unsere Arbeitswelt ändert.

Deutsche Unternehmen sind erfahrungsgemäß sehr gut organisiert, aber dadurch oft langsamer, um auf Trends zu reagieren oder auf Kundenwünsche einzugehen. Wenn man durch eine Software wie Wrike damit beginnt, mit Dashboards und in Sprints zu arbeiten, kann man innerhalb eines Teams oder einer Abteilung eine agile Arbeitsweise übernehmen.

Das passiert allerdings nicht von selbst: Die Software kann dabei unterstützen, doch die Führungsebene muss die Änderung planen und vorantreiben, wobei wir wieder beim Change Management sind. Denn Agilität heißt nicht, dass man planlos arbeitet, sondern mit Prozessen, die sich dem Endergebnis mit kleinen Schritten und Zwischentests nähern. Kurz gesagt: Wrike ist ein Katalysator beim Change zum agilen Unternehmen.

 

Gerade bei Projekten nimmt das Thema „single source of truth“ eine bedeutende Rolle ein: wie unterstützt Wrike hier, die Anforderungen, allen Beteiligten die aktuellsten und richtigen Daten zur Verfügung zu stellen?

In Wrike geschieht Zusammenarbeit immer im Kontext, direkt am Projekt und in einer Plattform – und nicht in mehreren Tabellen oder Dokumenten, die jeder lokal abspeichert und die am Ende nicht mehr übereinstimmen.

Wichtige Projektdaten liegen nicht im Posteingang eines Kollegen, sondern im Projektordner in Wrike, der von allen Beteiligten jederzeit eingesehen werden kann. Wrike unterstützt das Dateimanagement außerdem mit einer Versionierung, sodass jeder auf einen Blick die aktuellste Datei sehen kann. Und um eindeutig zu wissen, welches die finale und freigegebene Datei ist, kann hierfür der integrierte Freigabe-Prozess genutzt werden.

 

Herr Miller, vielen Dank für das Gespräch.

 

Weiterführende Informationen zum Unternehmen finden Sie unter:
https://www.wrike.com/de/

 

Unser Interviewpartner

Frazier Miller – Chief Marketing Officer

Frazier Miller leitet die Marketing-Initiativen von Wrike und bringt alle Marketing-Funktionen mit der strategischen Botschaft und der Markenentwicklung in eine Linie. Seine 20-jährige Karriere in der IT-Branche umfasst Rollen in der Führungsspitze von Yahoo, Bloomberg und Articulate. Durch seine Bandbreite an Erfahrung, sowohl im Produktmanagement als auch in Geschäftsprozessen, hat Miller eine einzigartigen Einblick gewonnen, wie sich Teams in einem hoch operativen Umfeld auszeichnen können.

 

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons

DSGVO: Die Stunde Null – was jetzt?

Nach Jahren der Arbeit an einem Gesetzesentwurf und weiteren 24 Monate seit ihrer offiziellen Ratifizierung ist die EU-Datenschutz-Grundverordnung (DSGVO) nun in vollem Umfang in Kraft getreten. Im Mittelpunkt der dazugehörigen Diskussion steht jetzt weniger das Bewusstsein der Unternehmen um ihre Anforderungen sondern ihre Durchsetzung durch die Behörden.

Auch wenn das Gesetz in der derzeitigen Form fest steht, existieren noch einige Unklarheiten: Wie rasch werden die Behörden die vorgesehenen Strafen verhängen? Welche Technologien und IT-Sicherheitsmaßnahmen werden dem „Stand der Technik“ gemäß gesetzeskonform sein? Wird die Verordnung Innovationen begünstigen oder hemmen?

Fakt ist, die Verordnung lässt Unternehmen keine Wahl: Wenn auch nur einer ihrer Kunden EU-Bürger ist, müssen sie sich an die Vorgaben halten. Welche Ereignisse im Zusammenhang mit der DSGVO können wir also für die nahe Zukunft erwarten?

 

Keine hohen Strafen – zumindest noch nicht

Die DSGVO verleiht Behörden die Befugnis, Unternehmen im Falle der Nichteinhaltung mit bis zu vier Prozent ihres globalen Gesamtumsatzes, oder mindestens 20 Millionen Euro, je nachdem was höher ist, zu bestrafen. Doch im Gegensatz zu vielen öffentlichkeitswirksamen Schlagzeilen und angstgetriebenen Werbekampagnen ist es unwahrscheinlich, dass Behörden diese Befugnis von Beginn an nutzen werden.

Tatsächlich sagte das britische ‚Information Commissioner’s Office‘ in einem öffentlichen Statement: „Die Vorstellung, dass wir frühzeitig ein Exempel an Unternehmen wegen geringer Verstöße statuieren grenzt an Panikmache, genauso wie die Vorstellung dass Höchststrafen die Norm werden. Wir bevorzugen das Zuckerbrot gegenüber der Peitsche.“

DSGVO-Konformität ist keine einmalige Angelegenheit, sondern ein kontinuierlicher Prozess der ständig evaluiert und weiterentwickelt werden muss, verdeutlicht Richard Werner, Business Consultant bei Trend Micro

Für Deutschland erwarten wir eine ähnliche Handhabe. Nichtsdestotrotz sind die Strafen alles andere als symbolisch. Die Toleranz der Behörden gegenüber Verstößen wird im Laufe der Zeit sicherlich geringer werden und dadurch werden die Chancen für große Strafzahlungsforderungen steigen. Die 20-Millionen-Euro-Frage ist, wann dieser Fall eintreten wird. Wir gehen davon aus, dass die ersten richtigen Bußen Unternehmen treffen werden, die mit Daten fahrlässig umgehen und sich nicht ausreichend gegen den Zugriff durch Cyberkriminelle schützen.

 

Erpressung im Zusammenhang mit der DSGVO

Cyberkriminelle erweisen sich immer wieder als findig. Wie wir besonders am starken Anstieg von Ransomware beobachten konnten, werden Erpressungsversuche immer beliebter, wobei Opfer bisher oft gezwungen werden ein Lösegeld zu bezahlen, um den angedrohten Datenverlust abzuwenden. Es ist durchaus plausibel, dass Kriminelle ein Unternehmen angreifen, dort Kundendaten abgreifen oder Malware platzieren, mit dem Ziel Geld von dem Unternehmen zunächst für ihr Stillschweigen zu erpressen.

Es ist zwar immer noch unklar, welche Strafen die Behörden für einzelne Angriffe verhängen werden. Dennoch könnten Hacker mögliche Strafen durch die DSGVO in Aussicht stellen, die durch ihren Angriff entstehen, um dann eine niedrigere Summe von den Unternehmen für die Vertuschung zu fordern. Die Frage ist, wie viele CEOs zahlen würden, um den Vorfall zu verschweigen.

 

Datenschutzvorfälle im Zusammenhang mit Lieferketten

Die DSGVO macht einen schrittweisen Wandel im Umgang mit den Dienstleistungen Dritter, wie Zulieferern und Partnern, erforderlich. Tatsächlich sind Datenverarbeiter wie Cloud Service Provider unter der DSGVO gleichermaßen haftbar für Verstöße wie diejenigen, die über die Daten verfügen. Die Lieferketten moderner Unternehmen sind oft komplexe und interdependente Netzwerke die schwer abzubilden und zu sichern sind.

Dadurch ist ein großer Vorfall im Zusammenhang mit Lieferketten sehr wahrscheinlich – womöglich mit Zulieferern aus Drittländern außerhalb der EU, in denen regionale Datenschutzgesetze weniger strikt sind. Unternehmen sollten daher sicherstellen, dass Subunternehmer, Zulieferer und Datenverarbeiter dieselben Vorgaben, Prozeduren und Sicherheitskontrollen befolgen, um die DSGVO einzuhalten.

 

Nur die halbe Wahrheit sagen

Trotz oder gerade wegen drohender Strafen, Rufschäden und Betriebsausfällen mögen manche Unternehmen versucht sein, schwerwiegende Verstöße gegen die Verordnung unter Verschluss zu halten. Offensichtlich wäre das Vertuschen der Wahrheit eine folgenschwere Fehlkalkulation, die unter Garantie gravierende Konsequenzen nach sich ziehen wird. Ein zentraler Punkt der DSGVO ist die Forderung nach Offenheit, Transparenz und Verantwortung seitens der Unternehmen. Die Verheimlichung von unsachgemäßem Umgang mit Kundendaten bedeutet die bewusste Missachtung dieser Prinzipien.

Gleichzeitig kann es immer sein, dass Unternehmen Datenverluste nicht melden, weil ihnen darüber einfach keine Informationen vorliegen. Vor dem Hintergrund der 72-stündigen DSGVO-Meldefrist sind stetiges Netzwerk-Monitoring, fortschrittliche Breach Detection und Reaktionspläne für den Ernstfall von großer Wichtigkeit.

Der Meldepflicht nicht oder nur teilweise nachzukommen ist eine ernsthafte Verletzung des Gesetzes. Die Behörden sollten daher baldmöglichst klarstellen, was genau einen Vorfall ausmacht und Unternehmen sollten Handlungsempfehlungen dazu suchen.

 

Eine Orientierungsphase

DSGVO-Konformität ist keine einmalige Angelegenheit. Im Gegenteil handelt es sich dabei um einen kontinuierlichen Prozess der ständig evaluiert und weiterentwickelt werden muss. Das sind insofern gute Neuigkeiten für Unternehmen, da es wahrscheinlich in einer Schonfrist resultieren wird, während derer Behörden und Unternehmen sich mit dem neuen Gesetz vertraut machen.

Um langfristig erfolgreich zu sein, müssen Vorstände die Verordnung als Geschäft betrachten und weniger als Sicherheitsrisiko. Eine Strategie muss formuliert werden, die Stakeholder aus dem gesamten Unternehmen beinhaltet – inklusive IT, Rechtsabteilung, Compliance und den Dateninhabern selbst. Die DSGVO wird uns erhalten bleiben. Deshalb müssen Unternehmen auf den Zug aufspringen, den Wandel mit offenen Armen begrüßen und lernen, welche neuen Möglichkeiten die neue Verordnung für Innovation, Wachstum und Wettbewerbsfähigkeit bietet.

 

 

Unser Autor

Richard Werner, Business Consultant bei Trend Micro

Weiterführende Informationen über das Unternehmen:

TREND MICRO

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons

Neue Studie: Die Lärmbelastung von Angestellten nimmt zu

Hinter offenen Büroumgebungen steht die Idee, die Zusammenarbeit von Mitarbeitern zu fördern. Eine neue Studie vom Forschungsinstitut Oxford Economics, die von Plantronics, Spezialist und Pionier für Kommunikationslösungen im professionellen und Consumer-Bereich, in Auftrag gegeben wurde, zeigt jedoch, dass die Lärmbelastung in Großraumbüros gravierende Ausmaße annimmt. Demnach haben sich die Bedingungen seit der ersten Erhebung aus dem Jahr 2015 deutlich verschlechtert.

Das Forschungsinstitut Oxford Economics befragte für ihre aktuelle Studie weltweit 500 Führungskräfte und Angestellte aus verschiedensten Industrie- und Funktionsbereichen. Die Teilnehmer kommen aus den USA, Großbritannien, Deutschland, Indien, China, Australien, Dänemark, Schweden, Finnland und Norwegen. Die Untersuchung umfasst zudem tiefergehende Interviews mit Führungskräften, die sich aktiv mit den Herausforderungen moderner, offener Arbeitsumgebungen an die Zusammenarbeit und Produktivität auseinandersetzen.

Die wichtigsten Ergebnisse der Studie:

Akustischen Bedingungen in offenen Büroumgebungen haben sich drastisch verschlechtert

Die Mehrheit der Führungskräfte und Angestellten berichten, dass sie an ihrem Arbeitsplatz nahezu konstant Lärm ausgesetzt sind und für Meetings oder konzentriertes Arbeiten kaum Rückzugsmöglichkeiten haben. Die Bedingungen sind nachweislich schlechter als noch vor drei Jahren. Dabei gibt es weiterhin große Diskrepanzen zwischen dem, wie Führungskräfte und Angestellte dieses Problem wahrnehmen:

  • Nur 1 Prozent der befragten Mitarbeiter (gegenüber 20 Prozent aus dem Jahr 2015) gibt an, keine Maßnahmen gegen Lärm und Ablenkung ergreifen zu müssen, um konzentriert und fokussiert arbeiten zu können.
  • Fast zwei Drittel der befragten Führungskräfte (wie auch im Jahr 2015) glauben, dass ihre Mitarbeiter über die notwenigen Mittel verfügen, um sich vor Lärm und Ablenkung am Arbeitsplatz zu schützen. Dem stimmen nur 29 Prozent der Angestellten zu (gegenüber 41 Prozent zum Jahr 2015). In Deutschland sind die Unterschiede noch gravierender: 64 Prozent der Führungskräfte behaupten, dass ihre Angestellten ausreichend Mittel zur Verfügung haben, um Lärm und Ablenkung zu entgehen. Zustimmung finden sie lediglich von 14 Prozent der Mitarbeiter.

Dies hat zur Folge, dass Angestellte selbst aktiv werden und Maßnahmen ergreifen müssen:

  • Drei Viertel der befragten Mitarbeiter weltweit wie in Deutschland geben an, einen Spaziergang an der frischen Luft zu machen, um anschließend konzentriert und effektiv arbeiten zu können. Ein Drittel greift auf Headsets mit Active-Noise-Cancelling zurück, um Lärm und Ablenkung zu reduzieren.
  • Mitarbeiter in geräuschintensiven Büroumgebungen ziehen es eher in Betracht, ihren Arbeitsplatz innerhalb der nächsten sechs Monate zu wechseln.

Wohlbefinden, Produktivität und finanzielle Auswirkungen

Die Ergebnisse zeigen weiter, dass Lärm und Ablenkung das Wohlbefinden, die Produktivität und sogar die finanzielle Leistungsfähigkeit des Unternehmens beeinträchtigen. Führungskräfte bieten jedoch nicht genügend Unterstützung zur Behebung dieses Problems:

  • 63 Prozent der Mitarbeiter geben an, keinen Rückzugsort für konzentriertes Arbeiten zur Verfügung zu haben, was sich negativ auf ihre Produktivität, Zufriedenheit und ihr Wohlbefinden auswirkt. Dieses Problem bestätigten nur 17 Prozent der deutschen Befragten.
  • Beinahe alle befragten Führungskräfte weltweit wie in Deutschland schätzen die Produktivität ihrer Mitarbeiter als entscheidend für den finanziellen Erfolg ihres Unternehmens ein. Davon sieht nur ein Drittel der Befragten einen direkten Zusammenhang zwischen der Lärmbelastung und der Produktivität ihrer Mitarbeiter.
  • Nur 6 Prozent der Führungskräfte weltweit wie in Deutschland geben an, die Büros ihrer Mitarbeiter mit Tools und Geräten zur Lärmreduzierung ausgestattet zu haben.

Millennials

Laut der Studie sind Millennials, also Personen im Alter von 22 bis 36 Jahren, eher an offene Büros gewohnt als ihre älteren Kollegen. Vermutlich geht dies mit der starken Verbreitung von Großraumbüros in den vergangenen Jahren einher. So ist es wahrscheinlich, dass Millennials ihre ersten Karriereschritte in einem solchen Umfeld machten. Trotzdem zählen sie zu den Ersten, die die Herausforderungen von Großraumbüros bewusst wahrnehmen und diesen anders gegenübertreten als ihre älteren Kollegen:

  • Während 30 Prozent ihrer älteren Kollegen angeben, ein geräuschintensives Arbeitsumfeld als anregend zu empfinden, bestätigen nur 9 Prozent der Millennials diese Aussage.
  • Nur etwas mehr als ein Drittel der Millennials ist mit der Gestaltung ihres Büros zufrieden. Unter den älteren Mitarbeitern ist es fast die Hälfte der Befragten.
  • Fast 90 Prozent der Millennials sind der Ansicht, dass es Aufgabe des Unternehmens ist, Maßnahmen zur Bewältigung von Lärm, Ablenkung und Informationsüberlastung zu ergreifen. Unter den Älteren stimmen 75 Prozent dieser Perspektive zu.
  • 84 Prozent der Millennials ziehen einen Spaziergang dem Aufenthalt in den büroeigenen Pausenräumen und an Ruheorten vor, um sich anschließend besser konzentrieren zu können. Nur 63 Prozent ihrer älteren Kollegen bevorzugen dieses Mittel.

Top-Unternehmen zeigen wie es geht

Die Studie zeigt einen Zusammenhang zwischen dem Umsatzwachstum und der Art und Weise, wie Unternehmen die Gestaltung der Arbeitsumgebung ihrer Mitarbeiter angehen. Mehr als drei Viertel der Führungskräfte in Top-Unternehmen (mit einem Umsatzwachstum von über zehn Prozent und niedriger Fluktuation) geben an, dass die Raumakustik und die Lärmminimierung essentiell für den finanziellen Erfolg ihrer Organisation sind. Zudem führen sie an, proaktiv gegen Lärm und Ablenkung in ihren Büros vorzugehen:

  • Umsatzstarke Unternehmen stellen ihren Angestellten häufiger Tools zur Verfügung, um sich vor Lärm und Ablenkung zu schützen. Zudem bieten sie Rückzugsmöglichkeiten für konzentriertes Arbeiten.
  • Unter den Führungskräften umsatzstarker Unternehmen glauben nur 28 Prozent, dass Mitarbeiter eine laute Umgebung als anregend empfinden. Bei den befragten Führungskräften der anderen Unternehmen sind es 50 Prozent.

Plantronics hat die Studie in Auftrag gegeben, um besser zu verstehen, wie Arbeitsumgebungen geschaffen werden können, in denen sich Mitarbeiter entwickeln und inspiriert arbeiten können. „Die Ergebnisse sind eindeutig: Offene Büroräume können zu Kosteneinsparungen führen, jedoch häufig zu Lasten der Produktivität und des Wohlbefindens der Mitarbeiter“, sagt Jennifer Adams, Director Enterprise Solutions Marketing. „Mit fast 60 Jahren akustischer Expertise bieten wir eine Vielzahl an Lösungen, die sich mit diesen Herausforderungen befassen. Dazu gehören Headsets mit Active-Noise-Cancelling sowie unsere Akustik-Management-Lösung Plantronics Habitat Soundscaping. Unsere Vision: Ein offenes Büro, in das Mitarbeiter gerne kommen, das ihr Wohlbefinden steigert und sie dabei unterstützt, ihrer Arbeit konzentriert und engagiert nachzugehen.“

Weitere Informationen unter:
https://www.plantronics.com/gb/en/solutions/managing-noise

Stirbt die Unternehmenswebsite aus?

Geht es der Unternehmenswebsite ähnlich wie den Dinosauriern vor 65 Millionen Jahren am Ende der Kreidezeit? So selbstverständlich wie damals der Tyrannosaurus Rex durch die Wälder streifte, so selbstverständlich beschränken viele Unternehmen heute ihre Aktivitäten im digitalen Raum auf die eigene Website.

Die Dinosaurier sind sang- und klanglos verschwunden, obwohl sie einst die Welt beherrschten. Auch die Unternehmenswebsite droht auszusterben, wenn sie sich nicht weiterentwickelt. Die Digital-Knowledge-Management-Spezialisten von Yext erklären, weshalb ihr Bedeutung schrumpft – und welche Weiterentwicklung notwendig ist, damit sie überlebt.

Voice Search und Drittanbieter bedrohen die Website

Wer im Internet nach einem Unternehmen sucht, stößt auf eine Vielzahl an Links, maximal einer davon führt zur Unternehmenswebsite. Zu ihm gesellen sich Links zu Bewertungsportalen, Adressverzeichnissen, Kartendiensten oder zu sozialen Medien. Darüber hinaus bieten auch die Suchmaschinen selbst Informationen an – bestes Beispiel ist hier der Google Knowledge Graph, der Informationen wie Adressdaten oder Öffnungszeiten direkt in die Suchergebnisseite einbindet.

Die Suche nach einem Unternehmen endet also nicht mehr zwangsläufig auf dessen Website. Im Gegenteil: Eine repräsentative Studie von Yext aus dem Jahr 2017 zeigt, dass 73 Prozent des relevanten Traffics auf Drittanbieter-Plattformen stattfindet. Für Konsumenten sind sie längst nicht mehr nur Durchgangsstation auf dem Weg zur Unternehmenswebsite, sondern ultimative Informationsquelle.

Die zunehmende Verbreitung von Sprachsuchtechnologien verstärkt diesen Trend. Einer Prognose von ComScore zufolge wird die Sprachsuche 2020 bereits die Hälfte aller Suchanfragen ausmachen. Konsumenten haben so dann noch nicht mal mehr die Option, die Unternehmenswebsite aufzurufen. Stattdessen geben ihnen ihre digitalen Assistenten etwa auf die Frage nach den Öffnungszeiten des nächstgelegenen Supermarkts einfach die direkte Antwort: Der Supermarkt schließt um 20 Uhr.

Diese beiden Entwicklungen – der Aufstieg der Sprachsuche und die zunehmende Zahl an Drittanbieter-Plattformen – führen zu einem Bedeutungsverlust der Unternehmenswebsite. Sie wird von Konsumenten immer seltener angesteuert.

Die Unternehmenswebsite muss sich weiterentwickeln

Was den Niedergang der Dinosaurier verursacht hat, ob ein Meteoriteneinschlag, Vulkanausbrüche oder Klimaveränderungen, ist unklar. Bei der Unternehmenswebsite lassen sich die Gründe für ihren Niedergang sehr klar benennen – und auch die Bedingungen ihres Überlebens. Dass sie weiterlebt, ist sowohl im Interesse der Unternehmen als auch ihrer Kunden, denn für die einen ist sie die am besten zu steuernde, für die anderen die zuverlässigste Informationsquelle.

 

 

Zwei Dinge werden das Überleben der Unternehmenswebsite sichern:

1. Die Unternehmenswebsite darf nicht länger als der einzig maßgebliche Kanal missverstanden werden. Unternehmen müssen weg vom „Website-First“-Prinzip und den eigenen Internetauftritt stattdessen als Teil eines weitläufigen Netzwerks aus Touchpoints begreifen, das auch zahlreiche Drittanbieter-Plattformen umfasst.

Für die Zukunft ist entscheidend, dass alle an diesen Touchpoints angebotenen Informationen korrekt, aktuell und widerspruchsfrei sind – hierzu bedarf es einer technischen Lösung, mit der man Inhalte zentral pflegen und per Knopfdruck auf allen Plattformen aktualisieren kann.

 

2. Unternehmenswebsites müssen technisch an die neuen Voraussetzungen angepasst werden. Das umfasst zum Beispiel, die bereitgestellten Informationen mit Hilfe von Auszeichnungssprachen strukturiert aufzubereiten. Denn digitale Assistenten wie Siri oder Alexa brauchen maschinenlesbare Daten, um zuverlässig antworten zu können.

Um die Unternehmenswebsite vor dem Aussterben zu bewahren, ist ein Evolutionssprung nötig. Unternehmen müssen sich verstärkt mit der Frage beschäftigen, welche Touchpoints Konsumenten im digitalen Raum ansteuern und wie sich die dort hinterlegten Informationen möglichst effizient verwalten lassen – angefangen bei Basis-Daten wie Öffnungszeiten, Telefonnummern, Standortadressen und Social-Media-Präsenz bis hin zur Speisekarte, detaillierten Produktinformationen oder Sonderangeboten.

Nur wenn es gelingt, die Unternehmenswebsite an die veränderten Bedingungen anzupassen, lässt sich ihr Überleben sichern.

***

 

 

Über Yext
Ab Yext wird Digitales gemanaged. Yext definiert damit die neue Kategorie Digital Knowledge Management. Unternehmen können all ihre öffentlichen Fakten managen, die sie Konsumenten über das digitale Ökosystem hinweg mitteilen wollen. Die Yext Knowledge Engine™ ermöglicht es, digitales Wissen zu verwalten und mit über 100 Plattformen im PowerListings Network® zu synchronisieren. Die Produkte Yext Listings, Pages und Reviews helfen Unternehmen weltweit, persönliche und digitale Interaktionen zu fördern und damit die Markenbekanntheit zu stärken, Laufkundschaft zu generieren und den Umsatz zu steigern.

Pressekontakt
Hotwire für Yext
yextdach@hotwireglobal.com
+49 (0) 89 21 09 32 75

 

 

Aufmacherbild /Beitragsbild / Quelle / Lizenz

Pixabay / CC0 Creative Commons

Pixabay / CC0 Creative Commons

 

Banken müssen sich öffnen

Banken müssen sich öffnen – in jedem Bereich – um weiter zu bestehen

Die Finanzbranche hat es momentan wirklich nicht leicht. Neue Technologien, neue Wettbewerber, neue Gesetze und gestiegene Kundenerwartungen – das sind nur einige der Herausforderungen, denen die Finanzinstitute gegenüberstehen.

Sinkende Margen und schwindende Börsenkurse haben dazu beigetragen, dass nahezu alle Institute mittlerweile die Zeichen der Zeit erkannt haben und nun auch wirklich Taten folgen lassen. Meist werden dazu riesige Summen in die Hand genommen, um mit neuester Technik voranzukommen. Warum Geld alleine das Problem nicht lösen kann, haben wir in einigen anderen Artikel bereits beschrieben. (Digital Banking – die größten Herausforderungen für Finanzinstitute)

Deutlich wird dies aber vor allem an der Tatsache, dass klassisches Banking an sich an Bedeutung verliert. Ohne eine Hausbank war das finanzielle Überleben einer Privatperson bis vor wenigen Jahren undenkbar. Aber wir leben in Zeiten von Apple Pay, PayPal, der Amazon-Kreditkarte und bald auch AliPay – wer einen Blick nach Asien, Afrika oder den USA riskiert, kann erahnen, was auf die Banken zukommt.

Wenn Arbeitgeber erst einmal beginnen, das Gehalt auf PayPal & Co. zu transferieren – wer braucht dann noch eine Hausbank? Vor allem, wenn es Wettbewerber gibt, die Bankservices besser, schneller, mobiler und günstiger anbieten. Noch genießen Hausbanken hierzulande einen Vertrauensvorsprung gegenüber digitalen Wettbewerbern, aber wie lange noch? Banken müssen daher neue Wege finden, interessant zu bleiben und die Anforderungen der Kunden bestmöglich zu erfüllen. Gelingt ihnen das nicht, geraten sie in Gefahr, die Kunden zu verlieren.

Open Banking – der Weg in die Zukunft?

Open Banking steht für die Öffnung bisher geschlossener Abläufe und Produkte. Zusammen mit Partnern, Wettbewerbern und vor allem externen Entwicklern lassen sich so schneller als bisher neue wettbewerbsfähige Produkte schaffen. Hierbei steht die Nutzung von Bank APIs (Softwareschnittstellen) durch externe Softwareentwickler im Vordergrund. Über APIs erhalten Entwickler Zugriff auf Kundendaten und Bankanwendungen, können diese mit anderen Daten kombinieren und so ganz neue Finanzdienstleistungen schaffen.

Der Kunde möchte Bequemlichkeit bei dem Erwerb eines Produktes oder bei der Nutzung eines Services. Dazu gehört auch, dass er nicht jedes Mal wieder alle seine Daten neu eingeben muss. Egal ob er bei Amazon shoppt, eine Wohnung bei Airbnb bucht oder ein neues Konto eröffnet. Banken haben sich bisher geweigert, die Kundendaten auch externen Drittanbietern zur Verfügung zu stellen. Begründet war dies oftmals auf herrschenden Regularien, die die Banken einhalten müssen.

Doch dürfen die Finanzinstitute in Zukunft nicht den Fehler machen, sich hinter diesen Regularien zu verstecken, sondern müssen auf Grundlage der DSGVO beginnen, ihre Daten externen Anbietern zur Verfügung zu stellen und so einen Mehrwert für die Kunden bieten. Banken stehen vor der Herausforderung sowohl ein einmaliges Kundenerlebnis zu schaffen, es den Kunden zu bequem und einfach wie möglich zu machen als auch die Sicherheit seiner Daten zu gewährleisten.

Hier liegt die Chance für Banken: Nahezu alle Anwendungen im Finanzumfeld benötigen einen Identitäts- und Altersnachweis und genau diese Unterlagen liegen den Instituten bereits vor. Kopien des Personalausweises, Gehaltsbescheinigung, Kreditwürdigkeit – all das ist in den Systemen der Banken vorhanden. Kreiert ein FinTech, das mit einer großen Bank kooperiert, eine neue App, kann auf Eingabe der persönlichen Daten, Überprüfen der Identität und Altersnachweis verzichtet werden, da viele der benötigten Dokumente bereits der Bank vorhanden sind.

Kunden kennen das Prozedere vom Smartphone – “Mit Google Konto registrieren/ anmelden”, künftig könnte es heißen “Mit meinem Konto von BankABC registrieren”. Die Deutsche Bank übrigens hat zusammen mit Partnern wie der Allianz und Daimler genau so etwas eingeführt. VERIMI¹ heißt das zentrale Account, mit dem man sich schnell und sicher bei verschiedenen Online-Diensten registrieren, einloggen und ausweisen kann.

Turbo-Booster PSD2

Aber das beschriebene Szenario ist nur der Startpunkt der digitalen Reise. Banking kann noch angenehmer werden, wenn man sich mit bisherigen Konkurrenten verbindet. Amazon hat das schon lange erkannt und bietet mit dem Amazon Marketplace externen Händlern seine Infrastruktur an. Das hat dazu geführt, dass viele Händler gar keine eigene Webseite geschweige denn einen Online-Shop benötigen, sondern ausschließlich auf Amazon verkaufen.

Interessanterweise hilft PSD2 diesen Ansatz im Finanzsektor voranzutreiben. Die Payment Services Directive 2 (PSD2) definiert die Marktöffnung für Drittanbieter im Zahlungsverkehr, um Innovationen und den Wettbewerb zu fördern. Gleichzeitig soll der Verbraucherschutz erhöht werden.

Hinter der neuen Richtlinie steht das Ziel, durch neue Anbieter, neue Lösungen und verstärkten Wettbewerb die Kosten im Zahlungsverkehr generell zu senken und die Sicherheit zu erhöhen. PSD2 verpflichtet Banken auf Wunsch des Kontoinhabers ihm oder von ihm ausgewählten Dritten den Zugriff auf Kontodaten zu gewähren. Für Kunden bedeutet das vor allem eine Vereinfachung des Zahlungsverkehrs, eine Analyse der Kontobewegungen und eventueller Sparmöglichkeiten.

 

Innovationen und Start-ups gegenüber offen sein

Neben OpenBanking, APIs und PSD2 bieten FinTechs den Banken eine weitere Möglichkeit, sich zu öffnen. Besondere Fähigkeiten und Kompetenzen, die für die Extraktion von Informationen aus vorliegenden Daten und Partnerschaften zwischen Branchenakteuren benötigt werden, können oftmals besser von FinTechs oder Startups geliefert werden. Sie haben die Möglichkeit und das Know-how, durch tiefer gehende Datenanalysen den Kunden individuelle Vorschläge zu unterbreiten und neue Geschäftsmodelle zu entwickeln.

Banken profitieren dabei von einer schnelleren Reaktionsfähigkeit auf Marktimpulse der StartUps. Durch die Partnerschaft kann die Zeit zwischen der Konzeption einer Lösung und ihrer tatsächlichen Kommerzialisierung enorm verkürzt werden. Weitere damit verbundene Vorteile sind Kostensenkungen und eine Steigerung der Rentabilität.

Einige der klassischen Banken haben bereits erkannt, wie nützlich Kooperationen mit  FinTechs sind und schaffen mit der Zusammenarbeit ein Win-Win aus Kundenstamm und neuen digitalen Lösungen. Beispiele sind die Direktbank ING mit Yolt oder die HSBC mit dem Fintech Bud. In einigen Fällen übernehmen Banken auch einfach FinTechs, so hat sich die spanische BBVA mit den drei Start-Ups Holvi, Simple und Madiva verbunden.

Open Mind gewinnt

Nicht nur “Open Banking”, sondern vor allem eine Art “Open Mind” ist es also, was deutsche Banken in Zukunft verfolgen müssen; bestehende Geschäftsmodelle und Infrastrukturen überdenken und überarbeiten. Die stattfindende digitale Transformation sollten Banken dazu nutzen, die eigene Ausrichtung vor allem in Hinblick auf Zusammenarbeit zwischen verschiedenen Parteien in einem System neu zu definieren. Das erklärte Ziel dabei: Innovationen und Bereitstellung von Dienstleistungen zum Wohle des Kunden.

 

Weiterführende Informationen zum Unternehmen:
www.avoka.com

 

Unser Autor

*Christian Brüseke verantwortet als General Manager die D-A-CH-Region von Avoka.

 

 

 

 

 

 

¹Quelle: VERIMI – https://www.deutsche-bank.de/pk/digital-banking/digital-banking-im-ueberblick/verimi.html 

 

Aufmacherbild / Quelle /Lizenz
Pixabay / CCO Creative Commons

Beitragsbild / Quelle / Lizenz
Pxabay / CCO Creative Commons

 

 

 

Was steckt hinter dem Erfolg der Pop-up-Stores?

Ob Sie nun temporären Einzelhandel, Flash-Einzelhandel, Guerilla-Stores oder Pop-up-Store hören, es ist alles ein und dasselbe. Pop-up-Shops erobern die Einzelhandelswelt und stellen traditionelle Verkaufsflächen vor Herausforderungen. Aber was genau steckt hinter diesem wirtschaftlichen Trend?

Bereits in den 1990er Jahren entstanden in Großstädten wie Tokio, London, Los Angeles und New York City Pop-up-Shops: temporäre Verkaufsflächen, auf denen Waren aller Art verkauft werden. Seitdem wurde fast jedes Konsumprodukt zu einem bestimmten Zeitpunkt über einen Shop verkauft. Von Kunst über Mode bis hin zu Tech-Gadgets und Essen sind Pop-ups spannend, weil sie kurzfristige Geschäfte schaffen, die ebenso kreativ wie ansprechend sind. Und es gibt sie in allen Formen und Größen.

Typische Eigenschaften dieser Geschäfte:

Laufzeit: nur wenige Wochen
Lage: stark frequentierte Bereiche wie Stadtzentren, Einkaufszentren und belebte Straßen, zum Teil aber auch ausgefallene Orte, wie Hinterhöfe.
Preis: häufig spezielle Rabattaktionen
Anwendung: Einführung neuer Produkte, Bewusstsein erzeugen, Coolness-Faktor erhöhen, Zielgruppe finden, Brand stärken

 

Was sind die Vorteile eines Pop-up-Shops?

Verbindung der Shopbetreiber mit ihren Kunden: Das Pop-up-Format ermöglicht es Shops, ihre Kunden persönlich kennenzulernen und stärkere Beziehungen aufzubauen.
Mehr verkaufen: Etwa 95% aller Einkäufe werden noch immer offline getätigt. Dies ist die Chance, diesen Handelskanal zu nutzen.
Bewusstsein erzeugen: Verbraucher und Medien lieben die Begeisterung, die von ausgefallenen Shops ausgeht. Händler erzeugen Aufmerksamkeit, indem Sie offline gehen und über Social Media gratis Werbung bekommen
Es ist billiger: Die Eröffnung eines Pop-up-Shops ist 80 % günstiger als ein traditionelles Einzelhandelsgeschäft, die Mietverträge sind kurzweilig
Test neuer Märkte: einfacher Einstieg in einen neuen Markt und Einführung neuer Produkte gerade für junge Unternehmer die ihr Produkt austesten möchten

 

Wer kann einen Pop-up-Shop eröffnen?

Die kurze Antwort ist: Jeder. Namenhafte Marken machen es vor. Der Mode Shop Peek & Cloppenburg bietet wechselnde Themen und Events in seinen Häusern an und erreicht damit neue Zielgruppen. Gleichzeitig sind lokale Künstler, Macher und Modedesigner auch in der Pop-up-Szene immer beliebter geworden. Selbst mobile Trucks für Lebensmittel, Designermode und Vintage-Hausrat werden immer häufiger auch in deutschen Städten entdeckt.

 

Fazit

Pop-up-Stores bieten sowohl klassischen Einzelhändlern als auch den Mietern dieser Flächen zahlreiche Vorteile. Kleine Unternehmen profitieren von der meist exklusiven Lage und hoher Besucherfrequenz. Diese sind ideal, um neue Produkte einzuführen und die Zielgruppe ausfindig zu machen.

Vermieter von Einkaufsflächen vermeiden Leerstände ihrer Verkaufsflächen, generieren Einnahmen durch die Miete und ziehen durch die Attraktivität und zeitliche Beschränkung der Verkaufsflächen neues Publikum an. Vor allem jedoch profitieren die Kunden, denen meist exklusive und hochwertige Produkte in einem attraktiven Umfeld und zu günstigen Konditionen angeboten werden. Somit lohnt sich diese Geschäftsidee für jeden Beteiligten.

 

 

 

 

 

 

Aufmacher- und Beitragsbilder / Quelle / Lizenz

Aufmacher
Pixabay CCO Creative Commons

Discount
Pixabay CC0 Creative Commons

Hot Dog Van
Pixabay CCO Creative Commons

Digital Banking – die größten Herausforderungen für Finanzinstitute

Die globale Finanzkrise ist längst vorbei, aber eine andere Art von “Krise” macht den Banken aktuell zu schaffen – die Digitale Transformation. Erstaunlich, denn eigentlich sollten die Institute mit der Digitalisierung ihrer Services keine Probleme haben.

Hat doch kaum eine andere Branche so früh wie der Finanzsektor sich mit dem Digitalen auseinandergesetzt: Online Banking ist seit gefühlten Ewigkeiten Standard; Kontoauszüge auf Papier gibt es kaum noch und wenn dann meist nur via Self-Service am Bankautomaten; Aktien werden seit über 20 Jahren quasi nur noch Online gehandelt – die Liste ließe sich hier beliebig weiterführen.

Und dennoch werden die klassischen Finanzinstitute aktuell von verschiedenen Seiten in die Zange genommen. Steigender regulatorischer Druck, der rasante Durchbruch des Smartphones, FinTechs, nicht-traditionelle Konkurrenten, rückläufiger Filialverkehr – all das macht es den Banken nicht leicht.

Zudem steigen die Kundenerwartungen immer weiter an. Privatkunden, aber immer öfter auch Firmenkunden, sind mittlerweile fast nur noch mobil unterwegs und durch den eCommerce (Amazon & Co.) andere Services gewohnt, als ihnen die klassische Bank hier bietet.

Die Finanzinstitute haben die Zeichen und die Not zu handeln erkannt. So gibt es zur Zeit wohl keine Bank, die nicht mit Macht an der Digitalen Transformation arbeitet. Aufgeben ist keine Option, aber das Aufholen ist nicht einfach und kostet Zeit. Hinzu kommen weitere Hürden, die teilweise nur im Banken- und Versicherungssektor bestehen. Im Folgenden soll auf einige der wichtigsten Herausforderungen für modernes Digital Banking eingegangen werden.

Kulturelle Aspekte bremsen die Transformation

In der Vergangenheit konnten Banken die Herausforderungen des Wandels meist ohne große Mühe meistern. Oftmals waren sie diejenigen mit dem größten Budget und konnten somit technische Neuerungen schnell umsetzen. Jedoch ist die Digitale Transformation nicht alleine mit digitalen Produkten und einem entsprechenden Budget zu bewältigen.

Denn neben Technik, ohne die es natürlich nicht geht, sind für den Erfolg der Digitalen Transformation vor allem Unternehmenskultur, Organisationsstruktur sowie die individuelle Einstellung von Entscheidern und Mitarbeitern von Bedeutung. Hinzu kommt eine gewisse Experimentierfreude mit der Bereitschaft, auch mal zu scheitern. Aber genau daran mangelt es den klassischen Banken.

Ein Beispiel verdeutlicht die Problematik: In der Vergangenheit haben Banken ihre Lösungen meist nur mit Innensicht und in dem von ihnen bestimmten Tempo umgesetzt. Zuerst wurde überlegt, ob sich ein neues Produkt für die Bank rentiert. Nur wenn dies mit JA beantwortet werden konnte, wurden Lösungen an die bestehende IT angebunden, in existierende Workflows eingebunden und die Mitarbeiter entsprechend geschult. Die Meinung und Wünsche der Kunden wurden hier meist nicht eingeholt.

Aber genau darum geht es heute: Neue Produkte und Service zu kreieren, um Kunden zu begeistern. Hier haben FinTechs und neue Player die bessere Position. Es handelt sich oft um junge Unternehmen, die von jungen Menschen geführt werden, die mit Smartphone und Tablet aufgewachsen sind und daher Produkte entwickeln, die ihrer und damit der Kundenmentalität entsprechen. Kein Wunder also, dass Unternehmen wie die Online-Bank N26 oder die Investment-Plattform etoro an den traditionellen Banken vorbeiziehen.

Neues Frontend – veraltetes Backend

Bei jeder klassischen Bank existiert ein über Jahrzehnte gewachsenes heterogenes IT-Gerüst, das immer wieder erweitert wurde. Darunter befinden sich neuere Entwicklungen aber auch Mainframes, die man aufgrund gewachsener Kernbanken-Anwendungen nie ablösen konnte.

Das Ganze ist ein sehr effizientes, voll funktionierendes System, das mit vielen Anwendungen, Schnittstellen und Partnern kommuniziert. Neue Lösungen wurden immer behutsam über einen längeren Zeitraum entwickelt, getestet und implementiert. Leider funktioniert das heutzutage nicht mehr, da die Halbwertszeit neuer Technologien immer geringer wird.

So gehört beispielsweise ein neues Smartphone nach sechs bis neun Monaten schon zum alten Eisen und die Betriebssysteme Android und iOS werden im Quartalstakt aktualisiert. Neue Lösungen wie zum Beispiel die Möglichkeit Kredite vom Smartphone aus zu beantragen und sich dabei mit Daten von Facebook oder Gesichtserkennung via Handykamera zu identifizieren unterliegen somit dem Druck möglichst schnell auf den Markt zu kommen, dabei optisch attraktiv und leicht bedienbar zu sein.

Und genau hier liegt für Banken das Problem: Innovationen schnell zu entwickeln und diese in die Kernapplikationen zu implementieren. So lässt sich ein neues Frontend vielleicht noch darstellen, die Lücke zum Backend ist jedoch groß. Komplexe, veraltete und intransparente IT-Architekturen behindern neue mobile Prozesse. Moderne Anwendungen im Frontend bringen die Finanzhäuser auf dem Weg der digitalen Transformation nicht weiter, wenn sie nicht gleichzeitig die Kernapplikationen im Backend modernisieren.

Dabei machen Finanzinstitute jedoch oft den Fehler, dass sie zu Übergangs- und Umgehungslösungen greifen, um so schnell wie möglich immer weitere Funktionalitäten oder Apps im Frontend anzubinden. Die Folge ist ein Flickenteppich im Backend, der stetig größer wird und dazu führt, dass sich das Grundproblem nur immer weiter verschärft.

Jedoch können Banken nicht einfach ihre bestehende IT aufgeben und wie ein Start-Up bei Null anfangen. Durch Kooperationen mit erfolgreichen neuen Playern können sie jedoch sehr schnell neue Lösungen anbieten. Die Anbindung an die bestehende IT muss dann “lediglich” über Schnittstellen mit diesen Playern gemeinsam realisiert werden. Im Vergleich zu den oben beschriebenen kulturellen Herausforderungen ist die technische Lücke zwischen Front- und Backend daher eher ein kleines Problem und leichter zu bewältigen.

Compliance als Chance begreifen

Basel 1-2-3, GDPdU, KYC, WpHg, MaRisk – wenn es eine Branche gibt, die Erfahrung mit rechtlichen Vorgaben hat, dann ist es die Finanzbranche. Niemand bekam in den letzten 20 Jahren mehr neue Regeln auferlegt, meist im Zwei-Jahrestakt. Erst vor Kurzem kam noch die DSGVO hinzu.

Mit den neuen Regeln steigen die Anforderungen an die Verwaltung von Daten und an die Informationssicherheit. Vom Frontend bis zur Kern-IT-Infrastruktur müssen transparente und automatisierte Geschäftsprozesse existieren. Das Schlechte dabei, an der DSGVO kommt niemand vorbei. Das Gute daran, an der DSGVO kommt niemand vorbei.

Natürlich stellt die die EU-Datenschutz-Grundverordnung auch für Banken eine große Herausforderung dar. Aber sie sind es gewohnt, neue Gesetze unter knappen Zeitvorgaben innerhalb einer großen Institution erfolgreich zu implementieren. Hier haben sie ausnahmsweise einen Vorsprung gegenüber ihren neuen Wettbewerbern.

Die DSGVO bietet traditionellen Banken die Chance, veraltete Geschäftsprozesse zu aktualisieren und digitale Transformationsinitiativen zu unterstützen. Die große Manpower in den klassischen Finanzhäusern, die eigenen Legal-Abteilungen, sowie die Erfahrung bei der Umsetzung von Gesetzesvorgaben, unterstützen die Banken bei der Implementierung der neuen Richtlinien. Die DSGVO ist also keineswegs nur eine weitere Compliance-Herausforderung.

Im Gegenteil, sie bietet argumentativen Rückenwind, sich auf die digitale Transformation einzulassen. Dies wird sich auch positiv auf den notwendigen Kulturwandel und die Öffnung hin zu neuen Partner auswirken.

 

Weiterführende Informationen zum Unternehmen:
www.avoka.com

 

 

Unser Autor

*Christian Brüseke verantwortet als General Manager die D-A-CH-Region von Avoka.

 

 

 

 

 

 

 

 

 

Kunde werden einfach gemacht

Auch wer noch nie von „Customer Onboarding” gehört hat, hat bereits praktische Erfahrungen damit gemacht. Dabei geht es darum, wie Unternehmen neue Kunden aufnehmen und in ihre IT-Systeme bringen. Praktisch hat also jeder Kunde in einem Online-Shop, jeder Besitzer einer Kundenkarte oder eines Bankkontos den Onboarding-Prozess bei seinem Anbieter bereits durchlaufen.

Bei Banken geschah dies früher ausschließlich in der Filiale, mit menschlichen Ansprechpartnern und Papierformularen – heute passiert es zum größten Teil komplett digital auf dem PC, Smartphone oder Tablet.

Ob ein potentieller Kunde eine Kontoeröffnung bis zum Ende durchführt oder den Onboarding-Prozess abbricht und zu einer anderen Bank geht, hängt in der digitalen Welt entscheidend von Themen wie der Geschwindigkeit, Benutzerfreundlichkeit oder Verfügbarkeit auf dem Endgerät der Wahl ab. Mehr und mehr setzt sich dabei die Erkenntnis durch: Ohne funktionierendes Onboarding keine neuen Kunden.

Technologie – Herausforderung und Lösung zugleich

Trotz der offensichtlichen Bedeutung des Themas kämpfen Banken auch 2018 noch mit der konkreten Umsetzung, wie der neue Avoka-Report „Digital Sales in Banking” zeigt. Das hat verschiedene Ursachen:

Auf der einen Seite haben die Banken sehr spät und oft auch nur halbherzig mit der Digitalisierung ihrer Services begonnen.

Auf der anderen Seite stehen stetig wachsende Kundenansprüche, neue Regularien aber vor allem sich ständig weiter entwickelnde Technologien, die keinen Stillstand erlauben. Aktuell bieten Künstliche Intelligenz, Machine Learning oder Chatbots interessante Ansatzpunkte, mit denen Finanzinstitute ihre Services verbessern und vor allem das Onboarding optimieren können.

 

 

Insbesondere drei Technologien bieten großes Potential für den Onboarding-Prozess:
Chatbots, Blockchain und API Banking.

 

1. Chatbots
Chatbots sind die „nächste große Sache” im Banking. Eines der größten Probleme beim digitalen Onboarding sind Sackgassen. Immer dann, wenn der potentielle Kunde nicht mehr weiter weiß, besteht die Gefahr, dass er den laufenden Prozess abbricht. Das kann ein Pull-Down-Menü sein, in dem er keine passenden Antwort findet; es kann sich um eine Frage handeln, auf die er keine Antwort weiß oder ein Dokument wird benötigt, dass er nicht zur Hand hat.

Zwar wertet Avoka solche Abbrüche aus und kann Banken zeigen, woran es hapert – aber leider erst im Nachhinein. Gefragt ist daher Live-Support: Freundlich, kompetent und rund um die Uhr verfügbar. Bot-Technologie und Künstliche Intelligenz geben Banken die Werkzeuge an die Hand, die sie benötigen, um Onboarding schneller, günstiger und vor allem für den Kunden angenehmer zu gestalten.

Ein Bot kann zum Beispiel eingreifen, wenn er bemerkt, dass ein Vorgang stockt oder der Kunde vor und zurück geht.
Die Kommunikation mit dem Bot kann dabei per Sprache oder auch per Schrifteingabe erfolgen, wobei Sprache das Tool der Wahl und der Zukunft ist. Man kann prinzipiell den gesamten Onboarding-Vorgang als Interaktion zwischen Kunde und Chatbot realisieren und ihn damit auf wenige Minuten reduzieren.

2. Blockchain
Im Bankenumfeld gibt es gefühlt unendlich viele Compliance-Vorgaben. Unter anderem müssen Banken Geldwäsche verhindern und dazu jeden ihrer Kunden wirklich kennen.
KYC (Know your Customer) nennt sich die von der EU-Anti-Geldwäsche-Richtlinie vorgeschriebene Legitimationsprüfung.Solche Vorschriften sind notwendig und nützlich für die Verhütung und Verfolgung von Verbrechen, sind aber in ihrer Implementierung und Umsetzung kostspielig, zeitaufwändig und vor allem fehleranfällig.Mit Blockchain-Technologie können Banken entlastet, die Einhaltung der Vorschriften gewährleistet und die anfallenden hohen Onboarding Kosten und Risiken minimiert werden. Mit der Technologie, die hinter der Kryptowährung Bitcoin steht, ließe sich für jeden Kunden ein zentraler, bankenübergreifender „Block“ erstellen, in dem alle persönlichen Daten vorliegen. Der Kunde gibt die Daten nur ein einziges Mal ein – entweder in einem Onboarding-Prozess oder bei einer speziellen Anwendung zur Erfassung seiner Daten.Diese Informationen werden dann verschlüsselt in einer Blockchain gespeichert.Der Kunde erhält ein Passwort oder einen privaten Schlüssel, der eingegeben werden muss, um die Informationen zu sehen. Wenn sich nun diese Person bei einer anderen Bank registrieren möchte, muss sie dem Finanzinstitut nur das Passwort für ihre Blockchain-Informationen geben, dann kann diese darauf zugreifen und die Daten automatisch hochladen.Dies würde den Verwaltungsaufwand für die Banken erheblich reduzieren, den Onboarding-Prozess deutlich beschleunigen und die Kosten für KYC-Compliance drastisch senken.
3. API Banking
Der heutige Bankkunde ist anspruchsvoll und will beim Banking genauso bedient werden, wie er es von Amazon & Co. gewöhnt ist. Er will nicht Jahre warten, bis seine Hausbank endlich das anbietet, was andere Branchen oder ausländische Banken bereits anbieten. Oftmals wollen Kunden sogar Bankanwendungen von Drittanbietern oder andere Finanzdienstleistungen nutzen, die nicht von ihrer eigenen Bank angeboten werden. Die Banken selbst sollten ein berechtigtes Interesse daran haben, dass ihre Kunden diese Dienste nutzen können, ohne zu einer anderen Bank zu wechseln.

Die seit Anfang 2018 in Kraft befindliche Zahlungsrichtlinie PSD2 der Europäischen Kommission soll für eine Öffnung des Bankwesens und mehr Wettbewerb sorgen. So sollen Kunden künftig in der Lage sein, zwei Konten bei unterschiedlichen Banken über einen Drittanbieter zusammen zu verwalten. Dafür müssen die notwendigen Daten über APIs abgreifbar sein.

API Banking ermöglicht es Drittanbietern oder anderen Banken, Anwendungen und Services gemeinsam zu entwickeln bzw. zu nutzen. Über offene und standardisierte Schnittstellen lassen sich externe Lösungen wie Chatbots oder die Identifizierung von Ausweisen mittels Smartphone in wenigen Wochen oder gar Tagen einbinden. Auf diese Weise lassen sich moderne Onboarding-Prozesse gemeinsam mit FinTechs, Drittanbietern und externen Entwicklern realisieren.

Licht im Tunnel

Die beschriebenen Technologien sind bei weitem noch nicht das Ende des Möglichen, zeigen aber deutlich, wo die Reise hingehen kann bzw. hingehen muss, wenn man als Bank im Wettbewerb um den Kunden bestehen will. Letztendlich geht es beim gesamten Onboarding-Prozess darum, es dem Kunden – sowohl Neu – als auch Bestandskunde – so bequem wie möglich zu machen. Neueste Technologien unterstützen diesen Prozess und erleichtern sowohl den Finanzinstituten als auch den Kunden den Weg zur erfolgreichen Zusammenarbeit.

 

Weiterführende Informationen zum Unternehmen:
www.avoka.com

 

 

Unser Autor

*Christian Brüseke ist seit Anfang 2017 bei Avoka tätig und verantwortet als General Manager die D-A-CH-Region.

 

 

 

 

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons

Mensch und Roboter – ein Dreamteam!

Die zurzeit in der Gesellschaft grassierenden Diskussionen, Roboter könnten uns in naher Zukunft unsere Jobs wegnehmen, werden durch entsprechendes Filmmaterial aus Hollywood noch untermauert. Visionen einer Gesellschaft, in denen Roboter das Ruder übernommen haben, prägen das Weltbild von Technik-Skeptikern. Aber was ist denn überhaupt dran an diesen vermeintlich düsteren Zukunftsaussichten?

Fest steht: Unsere Welt wird sich durch die zunehmende Automatisierung verändern. Und in diesem Zuge natürlich auch die Arbeitswelt. Bisher entsprechen die medialen Visionen aber nicht der Realität. Zwar übernehmen Roboter schon heute immer mehr Aufgaben: Sie assistieren Technikern, sie servieren Drinks, arbeiten im Warenlager, helfen dem Arzt bei der Operation und begrüßen Gäste in der Hotellobby in nahezu allen Sprachen. Fabrikroboter können in schwierigen Umgebungen tätig werden, benötigen keine Pausen (außer gelegentlicher Wartung), werden nicht krank und haben keinen Urlaubsanspruch.

Das bedeutet jedoch nicht automatisch, dass menschliche Arbeitskräfte in zehn Jahren ein Auslaufmodell sind. Unsere Arbeitsumgebungen werden in zehn Jahren aber anders aussehen – und darauf müssen wir uns einstellen.

Technologie-Einsatz schafft neue Arbeitsplätze

Auf den ersten Blick erscheint es paradox, aber aktuell lässt sich das Gegenteil der befürchteten Entwicklung beobachten: Unternehmen, die bereits damit begonnen haben, Techniken der künstlichen Intelligenz (KI) einzusetzen, verzeichnen höheres Wachstum als ihre Wettbewerber und stellen mehr Spezialisten ein als sie Stellen durch die Automatisierung abbauen.

Viele der durch KI geschaffenen Jobs sind leitende Positionen für hoch qualifizierte Arbeitskräfte. Vor diesem Hintergrund verwundert es nicht, dass die meisten Arbeitgeber der Meinung sind, dass ihr Bestehen am Markt und der wirtschaftliche Wachstum künftig von der Zusammenarbeit zwischen Künstlicher Intelligenz (KI) und Menschen abhängt.

Eine Studie des Beratungsunternehmens Accenture, die anlässlich des Weltwirtschaftsforums in Davos veröffentlicht wurde (Quelle: https://www.accenture.com/US-EN/company-reworking-the-revolution-future-workforce), kommt zu ähnlichen Schlussfolgerungen. Angestellte und Freiberufler sehen demzufolge dem Wandel der Arbeitswelt und dem Einsatz intelligenter Technologien gleichermaßen positiv entgegen.

Mehr als die Hälfte erwarten durch KI positive Auswirkungen auf ihren Arbeitsalltag. Viele erkennen, dass durch den Einsatz von neuen Technologien ihre Arbeit einfacher und vor allem abwechslungsreicher wird und mehr als die Hälfte (55 Prozent) der Befragten erhoffen sich neue Karriereperspektiven. Dabei wird es entscheidend für den wirtschaftlichen Erfolg, Angestellte zu qualifizieren und bisherige Jobprofile an die neuen Gegebenheiten anzupassen.

Viele Unternehmen in Deutschland haben bereits die Aufgabenbereiche und Rollenbeschreibungen von Mitarbeitern neu definiert, um den technologischen Veränderungen im Arbeitsalltag gerecht zu werden. Fast die Hälft der Führungskräfte ist davon überzeugt, dass ihre die Arbeit künftig noch stärker projektbasiert sein wird und dass die Technologien ein ständiges Aneignen neuer Fähigkeiten erfordern werden.

Fest definierte Aufgabenfelder und starre Arbeitsroutinen werden zum Auslaufmodell. Durch die Qualifizierung ihrer Mitarbeiter sichern sich Unternehmen langfristig einen Wettbewerbsvorteil, denn lediglich dort wo Mensch und Maschine kollaborieren, steigt die Produktivität weiter und sichert die wirtschaftlichen Grundlagen auch in der Zukunft.

Erfolgreiche Unternehmen definieren und entwickeln neue Arbeitsbereiche

Autor Shailesh Dixit ist Head of Innovation and IP Wipro Continental Europe.

Die Fertigungsindustrie scheint von der Automatisierung am stärksten betroffen zu sein. Der Einsatz von Robotern ermöglicht es, Deutschland als Produktionsstandort neu zu beleben. Dadurch werden Jobs im eigenen Land geschaffen und gesichert, davon einige mit ganz neuen Anforderungsprofilen. So werden als direkte Folge dieser Veränderungen zunehmend Mitarbeiter mit technischen Fachkenntnissen nachgefragt, um die eingesetzten KI-Systeme und -Modelle zu trainieren. Diese „KI-Trainer“ sollen sicherstellen, dass KI-Systeme die erwartete Funktionalität mitbringen. Sie müssen den Systemen beispielsweise „beibringen“, wie sie Fehler korrigieren oder menschliches Verhalten nachahmen.

Auch KI-Analysten werden zukünftig begehrte Experten sein. KI-Systeme können relevante Entscheidungen nicht alleine treffen. Sie benötigen eine Schnittstelle, die ihre Informationen analysiert, Empfehlungen aussprechen, an die entsprechenden Mitarbeiter weiterleiten und verständlich machen kann. Fachkräfte mit umfassenden Kenntnissen zu hochgradig technisierten Systemen sind hier unersetzlich. Und das sind nur zwei Beispiele für mögliche neue Arbeitsfelder.

Der verstärkte Einsatz von Robotern sollte somit nicht einseitig als Bedrohung betrachtet werden. Vielmehr bieten die neuen Technologien eine Vielzahl von Vorteilen, die sich Unternehmer, Manager und Mitarbeiter gleichermaßen zunutze machen können. Menschliche Arbeitskräfte haben also nicht nur gute Chancen, ihre Arbeit zu behalten, sondern profitieren zudem von der Möglichkeit, ihre Produktivität mithilfe der Automatisierung zu steigern.

Empathie ist nicht trainierbar

Die Angst, Roboter könnten uns künftig unsere Jobs wegnehmen ist also nicht wirklich begründet. Der Mensch muss sich wieder auf seine einzigartigen Fähigkeiten besinnen, die künstliche Intelligenzen in absehbarer Zeit nicht werden ersetzen können, etwa Empathie oder Kreativität. Künstliche Intelligenzen, Computer und Roboter können auf vorhandenen Ideen aufbauen, jedoch keine eigenen Ideen entwickeln. Kreatives Denken und auf langjährigen Erfahrungen aufgebautes Handeln obliegt weiterhin den Menschen und wird in der Arbeitswelt auch in Zukunft unabdingbar sein.

Künstliche Intelligenzen sind somit keine Konkurrenz oder gar ein Ersatz zu menschlichen Arbeitskräften, viel mehr sind sie eine nützliche Ergänzungen und Unterstützung, um Mitarbeiter zu entlasten, körperlich schwierige Arbeiten zu übernehmen und Kosten zu sparen.

Die Zusammenarbeit von Künstlichen Intelligenzen und menschlichen Fachkräften ist eine zukunftsorientierte Maßnahme, die nicht nur den Unternehmen, sondern auch den Mitarbeitern eine effektive Möglichkeit bietet, neue Kompetenzen zu erwerben, vorhandene auszubauen und diese dann zukunftsorientiert branchenübergreifend einzusetzen. Unternehmen profitieren von dem Einsatz von KI, wenn sie die Technologie so einsetzen, dass ihre Mitarbeiter neue Aufgaben übernehmen können. Nimmt man die jeweiligen Stärken zusammen, bilden Mensch und Roboter ein Dreamteam.

Weiterführende Informationen unter:
https://www.wipro.com/

 

Mit Big Data sicher im Finanzumfeld

 

Wie ist die Bonität des Kunden? Wie sicher zahlt er seine Kredite zurück? Wie hoch ist das Risiko, ihn zu versichern und wenn, zu welchem Preis? Die Auswertung von Daten ist für Banken und Versicherungen seit je her ein wichtiger Punkt in ihrer Geschäftstätigkeit.

Seine Kunden und seinen Markt zu kennen und dabei Schlüsse auf zukünftige Entwicklung ziehen zu können, gehört schon immer zum Handwerk im Finanzsektor. Neu ist nun, dass die Daten, die bislang zur Verfügung stehen, effizienter genutzt werden können. Das hat für einige Bereiche entscheidende Vorteile.

 

Datenverarbeitung früher – kein Vergleich

Früher wurden Daten in einheitlich konzipierte Datenbanken geschrieben, die stets dasselbe Format hatten und in ihrer Menge für die weitere Verarbeitung überschaubar blieben. So handelte es sich im Kundenverkehr meist um Stammdaten wie etwa Anschrift oder Historie (wie viele Kredite, Einlagen beziehungsweise Schadensfällen bei Versicherungen). Heute jedoch stehen viel mehr – auch unterschiedlichste – Datenarten zur Verfügung: Big Data.

Um diese zu nutzen kommen viele Analysen in Frage. So können Banken beispielsweise durch die Auswertung von Handelsdaten etwa Geldwäscherei schneller erkennen und entsprechend gegensteuern. Bislang konnten historische Daten nur archiviert vorgehalten werden – ein Nachteil für eine zeitnahe Betrachtung, denn Trading-Daten eines bestimmten Tages waren nur nach Geschäftsschluss verfügbar. Zwischen diesem Zeitpunkt und dem vorher erfolgten Trade war nun Betrug Tür und Tor geöffnet.

Mit dem Einsatz von Big Data können diese Daten sofort bearbeitet werden. Zudem ist die Betrachtung auch sehr historischer Daten möglich und notwendig, um ein zutreffendes Gesamtbild darzustellen. In einem gemeinsamen Datenpool können mehrere Geschäftszweige einen Einblick in alle Trading-Aktivitäten erhalten. In ihm findet beispielsweise das Trading-Risk-Team seine Positions-, Ausführungs- und Bilanzdaten.

 

Sicherheit für Banken

Auch das Ausfallrisiko bei Kontoanträgen können Banken mit Big Data reduzieren. Dazu wenden sich Banken bei einer Neuerstellung eines Giro- oder Sparkontos an ein externes Scoring-Unternehmen. Dieses wiederum prüft den Kontoinhaber in spe auf sein bisheriges Banking-Verhalten: Hier fließen nicht nur Selbst- und Schufa-Auskunft ein, auch Informationen aus sozialen Medien wie etwa das soziale Umfeld können Messgrößen darstellen.

Ob der Antragsteller teure Konsumgüter bevorzugt, auf Xing oder LinkedIn den eigenen aktuellen Arbeitgeber angibt – all dies sind Informationen, die eine Kontoeröffnung beziehungsweise Kreditvergabe günstig beeinflussen können. Dies geschieht natürlich nur auf freiwilliger Basis.

 

Besserer Service

Nicht zuletzt kann eine Bank durch die Analyse des Verhaltens ihrer Geschäftspartner wertvolle Einsichten für ihre Kundenbindungsprogramme erhalten. Falls diese plötzlich ihre Daueraufträge löschen, Kartenumsätze sinken oder weniger Einnahmen zu verzeichnen sind, kann dies ein Indikator für einen bevorstehenden Wechsel zu einer anderen Bank sein.

Doch auch wenn es um den Ausbau bestehender Kundenbeziehungen geht, kann Big Data einen großen Teil beitragen. So kennt eine Bank natürlich die Kontenbewegungen seiner Kunden. Bei Zahlungen an Stromanbieter kann eine Bank – selbstverständlich anonymisiert – die günstigsten Anbieter identifizieren und ihren Kunden im Rahmen einer Konsumentenberatung oder eines Newsletters entsprechende Hinweise bieten.
Auch könnte ein Geldinstitut bei Ratenzahlungen für ein Kraftfahrzeug entsprechende Versicherungsleistungen anbieten.

 

Big Data – auch für Versicherungen wichtig

Bei Versicherungen kann Big Data dazu führen, dass den Versicherten ein wirklich maßgeschneidertes Produkt angeboten werden kann. Durch die Analyse von unstrukturierten Massendaten kann ein Versicherer das Risiko einer Klasse von Versicherten genauer einschätzen und Policen günstiger anbieten und sich so vom Wettbewerb abheben.

Krankenversicherungen können vorbeugende gesundheitserhaltende Maßnahmen anbieten, die aufgrund des Verhaltens der Versicherten optimiert werden. Da diese Daten zeitnah vorliegen, ist eine Anpassung dieser Angebote auch kurzfristig möglich – früher konnten Versicherer nur in einem langen Zeitrahmen reagieren.

 

Straffung interner Prozesse

Sowohl für Banken als auch für Versicherer bietet Big Data aber mehr als das. Alleine die Straffung interner Prozesse kann die Marktposition des einen oder anderen Instituts entscheidend verbessern. So sind Informationen über Kunden, Finanzprodukte oder Versicherungen schneller verfügbar.

Mittels künstlicher Intelligenz kann die IT auch automatisch das richtige Finanz- oder Versicherungsprodukt vorschlagen. Dies geschieht sowohl aufgrund der individuellen Situation des Kunden als auch aufgrund dessen, welches Produkt für eine vergleichbare Gruppe an Kunden bereits in Frage gekommen ist und sich derer Zustimmung erfreut.

Nicht zuletzt sorgt Big Data auch für Transparenz beim Kunden. Er kann komplexe Informationen bequem von einem mobilen Endgerät aus einsehen.

Zwar befindet sich die Nutzung von Big Data bei Banken und Versicherungen überwiegend am Anfang – aber bereits in einigen Jahren wird sich kaum noch jemand Institute ohne diese Technologie vorstellen können. Denn der wahre Schatz der Finanzinstitute liegt nicht –  wie man vielleicht glauben mag, in Geld, Gold und Geschmeide –  sondern das „Edelmetall“ des jetzigen Jahrhunderts sind die Daten.

 

Weiterführende Informationen zum Unternehmen finden Sie unter:
https://de.hortonworks.com/

 

Über den Autor

Als Regional Vice President for Central, Eastern & Southern Europe ist Daniel Metzger bei Hortonworks für die Vertriebsteams, Partner und Kundenbeziehungen in der Region verantwortlich. Daniel Metzger ist ein erfahrener Vertriebsleiter, der in den letzten 20 Jahren in vielen strategischen nationalen und internationalen Projekten mitwirkte, u.a. in vorherigen Stationen bei BMC und MRO.

 

 

 

 

 

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons

 

Braucht Deutschlands Automobilbranche neue Berater?

Ein Gastbeitrag von Dr. Stephan Melzer und Prof. Dr. Martin Przewloka, minnosphere GmbH

Fast eine Million Beschäftigte, mehr als 400 Milliarden Euro Umsatz im Jahr – die Automobilindustrie ist ohne Frage eine der Schlüsselbranchen unseres Landes. Deutsche Automobile sind der Inbegriff von Ingenieurskunst, Qualität und Innovation. Oder aus heutiger Sicht: waren es, denn die Branche hat ein Imageproblem. Mit ihrem beharrlichen Festhalten am Verbrennungsmotor im Allgemeinen und der Dieseltechnologie im Speziellen gilt sie vielen als Bremser einer nachhaltigen Entwicklung. Versuche, auf politischer Ebene den gesellschaftlichen Wandel hin zur Elektromobilität zu verzögern, tun ihr Übriges.

Prof. Dr. Martin Przewloka, Chief Digital Officer bei minnosphere, ein Start-up der msg-Gruppe

Prof. Dr. Martin Przewloka, Chief Digital Officer bei minnosphere, ein Start-up der msg-Gruppe

Dieses Bild ist jedoch nur die halbe Wahrheit, denn in vielen innovativen Bereichen wie der Robotik oder dem autonomen Fahren stehen deutsche Autobauer nach wie vor ganz vorne an der Spitze des Fortschritts. Forschung und Entwicklung finden jedoch noch viel zu oft im Stillen und unter rigorosem Ausschluss von Öffentlichkeit und Konkurrenz statt. Innovation lebt jedoch von Offenheit, das zeigen die Erfolge im Silicon Valley und anderen amerikanischen Zentren des Fortschritts ganz deutlich, in denen Unternehmen und Universitäten Ideen und Informationen weit freier austauschen als dies bei uns üblich ist. Wir brauchen zudem offene Schnittstellen, um gemeinsam modul- und unternehmensübergreifend die Dinge voranbringen zu können. Um über die bereits erwähnten offenen Schnittstellen Informationen austauschen zu können, müssen wir zukünftig mehr in Komponenten und Baugruppen denken. Eine nach diesen Regeln agierende „Open Innovation“-Bewegung könnte genauso erfolgreich sein wie der Open-Source-Ansatz in der Software-Entwicklung.

Offenheit, Agilität und Innovationsfreude können aber nur gedeihen, wenn sich die Kultur in den Unternehmen verändert. Hierarchien müssen abgebaut, die Verantwortungen in die Teams übertragen werden. Auch der Umgang mit Fehlern ist zu überdenken. Um aus ihnen wirklich lernen zu können, darf man sie nicht verschweigen und unter den Teppich kehren, sondern muss sie benennen, ja geradezu als wichtige Informationsquelle erkennen.

Unternehmensberatung der Zukunft

Diese Transformation wird sich in den Anforderungen an die zukünftigen Unternehmensberater in der Automobilindustrie widerspiegeln. Wir brauchen auch in der Beratung einen offenen Austausch von Wissen und Erfahrungen mit dem Ziel der Steigerung der Innovationsfähigkeit, statt sich einseitig und ausschließlich auf Effizienzsteigerung zu konzentrieren.

Dr. Stephan Melzer, Geschäftsbereichsleiter Automotive in der msg-Gruppe und Geschäftsführer des msg-Innovation-Labs minnosphere GmbH

Dr. Stephan Melzer, Geschäftsbereichsleiter Automotive in der msg-Gruppe und Geschäftsführer des msg-Innovation-Labs minnosphere GmbH

Heute sind Unternehmensberater darauf spezialisiert, Einsparpotenziale sowie Möglichkeiten zur Prozessoptimierung zu identifizieren. Sie konzentrieren sich daher gerne auf Kennzahlen, mit denen sich die Leistung eines Unternehmens und deren Steigerung scheinbar objektiv messen lassen. Dabei ist es keine Frage, dass Kennzahlen zur Steuerung eines Unternehmens eine wichtige Rolle spielen. Wer den Erfolg seiner Entscheidungen und des Handelns nicht misst, arbeitet quasi im Blindflug. Die Konzentration auf Kennzahlen und deren Messung hat jedoch auch einen gravierenden Nachteil: Der Fokus liegt zu stark auf der Erzielung kurzfristiger Erfolge. Langfristige Investitionen und das Eingehen sinnvoller Risiken geraten aus dem Blick, was sich wiederum negativ auf die Innovationsfreude und -fähigkeit eines Unternehmens auswirken kann. Es liegt in der Natur der Sache, dass neue Dinge zunächst einmal unreif, ineffizient und fehlerhaft sind – das gilt für neue Produkte ebenso wie für neue Geschäftsmodelle. Sie verschlechtern daher zwangsläufig zunächst einmal die Bilanz. Auch lassen sich in neuen Geschäftsfeldern Risiken und Rückschläge nicht vermeiden. Wirklich Neues wird daher durch zu enge Budgetvorgaben und starre Fünfjahrespläne verhindert oder erschwert.

Wir brauchen deshalb in der Beratung einen neuen Ansatz, der neben den Kennzahlen auch die Zukunftsfähigkeit eines Unternehmens bewertet. Strömungen wie Design Thinking und agile Entwicklung sind keine Allheilmittel, sie sind aber wichtige Bausteine, die zukünftig von Beratern beherrscht und eingesetzt werden müssen, um eine neue Innovationskultur zu fördern. Nicht eine 30-jährige Erfahrung in der Automobilbranche, nicht Spezialistentum und Expertenwissen dürfen im Vordergrund stehen, sondern die Bereitschaft zu vernetztem Denken und bereichsübergreifendem Handeln. Die dafür notwendigen Fähigkeiten kann man heute leider nur an sehr wenigen Bildungsstätten lernen, denn deutsche Ausbildungs- und Studiengänge fördern den hochgradig spezialisierten Experten, der von sehr wenig sehr viel weiß. Wir brauchen wieder vermehrt ein Studium Generale, das die Perspektive weitet und den Blick über den Tellerrand des eigenen Spezialgebiets hinaus ermöglicht, auch und gerade für die Studierenden, die eine Laufbahn in der Unternehmensberatung anstreben.

Fazit

Nur wenn es der deutschen Automobilindustrie und den dort wirkenden Beratern gelingt, diese Transformation zu leisten, wird sie auch im Zeitalter der Elektromobilität noch die Vorreiterrolle spielen können, die sie in den vergangenen 50 Jahren innehatte. Berater, die diesen Prozess begleiten und vorantreiben, benötigen einen weiten Blick, eine multidisziplinäre Ausbildung, ausgesprochen hohe Kommunikationsfähigkeiten und vor allem den Willen, mehr als nur Kennzahlen zum Ziel ihres Handelns zu machen und neue Wege zu gehen. Vieljährige, hochspezialisierte Branchenerfahrung wird dabei in den kommenden Jahren immer weniger die entscheidende Rolle spielen.

Über die Autoren

Dr. Stephan Melzer ist Geschäftsbereichsleiter Automotive in der msg-Gruppe und Geschäftsführer des msg-Innovation-Labs minnosphere GmbH; Prof. Dr. Martin Przewloka, Chief Digital Officer bei minnosphere, ein Start-up der msg-Gruppe.

Mobiles Bezahlen für Milliarden von IoT-Geräten

NXP, Mastercard und Visa reformieren das mobile Bezahlen für Milliarden von IoT-Geräten

Montblanc’s TWIN-Smart-Armband basiert auf der neuen NXP mWallet 2GO Plattform

MÜNCHEN/AMSTERDAM – 7. Juni 2018 –

NXP Semiconductors N.V., Mastercard und Visa stellen mWallet 2GO, einen White-Label-Wallet-Service, vor, der auf Basis der NXP Secure Service 2GO Plattform entwickelt wurde. Mit dem neuen Service ist NXP der erste Anbieter in der Branche, der das gesamte Entwicklungsspektrum für mobile Wallets in einer einzigen Lösung anbietet.

mWallet 2GO

Die Zahlungslösung umfasst nicht nur die gesamte Hardwaretechnologie, sondern auch die Software und die Systemintegration. Sie wurde konzipiert, um die Entwicklungsprozesse zu vereinfachen, die Kosten zu senken und die Time-to-Market für OEMs zu verkürzen. mWallet 2GO lässt sich flexibel einsetzen und stellt mobile Zahlungsmöglichkeiten für jedes tragbare, mobile oder IoT-Gerät bereit.

Das deutsche Unternehmen Montblanc, ein führender Hersteller von hochwertigen Schreibgeräten, Armbanduhren, Schmuck und Lederwaren, bringt als erster Anbieter eine eigene mobile Wallet-Lösung auf Basis von mWallet 2GO für sein neues TWIN-Smart-Armband auf den Markt.

Erster Anbieter: Montblanc

„Montblanc steht für Raffinesse und Handwerkskunst, und dieses Erbe setzen wir mit der Einführung des TWIN-Smart-Armbands fort“, sagt Dr. Felix Obschonka, Direktor für Neue Technologien bei Montblanc. „In diesem neuen eleganten, intelligenten Armband haben wir High-End-Materialien mit den fortschrittlichsten Technologien auf dem Markt kombiniert. So können wir unseren Kunden eine einfache und sichere Zahlungsoption gemeinsam mit ihrer geliebten Uhr bieten – damit sie Design und Komfort genießen können, ohne auf neueste digitale Technologien verzichten zu müssen.“

„mWallet 2GO erweitert unsere marktführende Chiplösung zu einer echten Full-Service- und Systemlösung für mobiles Bezahlen. Nach der Ankündigung von MIFARE 2GO beweist das einmal mehr, dass NXP an der Spitze der Transformation ganzer Ökosysteme steht“, sagt Rafael Sotomayor, Senior Vicepresident Secure Transactions and Identification Solutions bei NXP. „Der Erfolg des Unternehmens bei der Implementierung mobiler Bezahlsysteme bestätigt, dass NXP weltweit den Weg für neue, aufregende und sichere Zahlungslösungen ebnet.“

NXP an der Spitze der Transformation ganzer Ökosysteme

Von der Zusammenarbeit von NXP, Mastercard und Visa profitieren sowohl Verbraucher als auch Banken. Die Verbraucher haben mehr Möglichkeiten, Zahlungen mobil, schnell, sicher und bequem abzuwickeln, die Banken wiederum können ihr Produktangebot modernisieren und erweitern.

Als erste echte End-to-End-Lösung integriert mWallet 2GO die fortschrittlichsten Technologien von NXP, um OEMs eine vorzertifizierte und validierte Komplettlösung anzubieten. Dazu zählen:

· Near Field Communications (NFC)

· Secure Element (SE)

· NFC Middleware

· SE JavaCard Betriebssystem

· SE Applets

· SEMS (Secure Element Management Service)

· Wallet Application and Software Developer Kit (SDK)

· Wallet Serve

· MDES (Mastercard Digital Enablement Service)

· VTS (Visa Token Service) Tokenization Plattformen

 

Secure Service 2GO Plattform

Die Secure Service 2GO Plattform von NXP ist die Basis für verschiedene Sicherheitslösungen. MIFARE 2GO wurde im Februar 2018 eingeführt und verwaltet digitalisierte MIFARE-basierte Zugangsdaten für IoT-Geräte. Der Service wird beispielsweise für Pendelfahrten mit der Las Vegas Monorail angeboten und ist vollständig in Google Pay integriert. Damit ist er für mehr als zwei Milliarden aktive Android-Nutzer verfügbar.

mWallet 2GO und MIFARE 2GO zeigen, dass NXP über Halbleiterlösungen hinausdenkt und auf voll integrierte Services und Plattformen als Geschäftsmodell setzt. Die End-to-End-Lösungen verbinden Service-Provider mit IoT-OEMs und ermöglichen es ihnen, schnell innovative Produkte zu entwickeln, die höchste Cloud-to-Node-Sicherheit und Skalierbarkeit bieten.

 

About NXP Semiconductors
NXP Semiconductors NV (NASDAQ: NXPI) ermöglicht sichere Verbindungen und Infrastrukturen für eine intelligentere Welt und bietet Lösungen, die das Leben einfacher, besser und sicherer machen. Als weltweit führender Anbieter von sicheren Konnektivitätslösungen für Embedded-Anwendungen treibt NXP Innovationen in den Märkten für sicher vernetzte Fahrzeuge, End-to-End-Lösungen für Sicherheit und Datenschutz sowie für intelligente vernetzte Lösungen voran. Das Unternehmen verfügt über mehr als 60 Jahre Erfahrung und Expertise und beschäftigt 30.000 Mitarbeiter in mehr als 30 Ländern. Im Jahr 2017 erzielte das Unternehmen einen Umsatz von 9,26 Milliarden US-Dollar.
Mehr Informationen unter www.nxp.com.

 

Für weitere Informationen nehmen Sie bitte Kontakt auf mit:

NXP

Martijn van der Linden

Tel: +31 6 10914896

E-Mail: martijn.van.der.linden@nxp.com

 

 

NXP and the NXP logo are trademarks of NXP B.V. All other product or service names are the property of their respective owners. All rights reserved. © 2018 NXP B.V.

Freie Fahrt für alle?

Autofahren wird sich ändern. Bei dem zunehmenden Verkehr haben Städte und Gemeinden auch keine andere Wahl. Straßen und Autobahnen sind zunehmend verstopft. Wenn man sich die morgentliche Situation in einer Stadt wie München ansieht, kommt man zu dem Schluss, dass das Maximum bereits erreicht ist. Jedoch demonstrieren Kommunen wie London, Paris oder Moskau, dass es noch schlimmer kommen kann. Wo liegt dann die Lösung?

Wer sich mit seinem Fahrzeug in die Stadt bewegt, hat meist innerstädtische Ziele. Typischerweise kommt zum reinen Weg auch noch einige Zeit hinzu, die der Fahrer für die Parkplatzsuche aufwenden muss. So fällt weitaus mehr Kohlenmonoxyd- und Kohlendioxyd-Ausstoß an, als eigentlich notwendig wäre. Das führt dazu, dass beispielsweise in Stuttgart mit seiner Kessellage Abgase sich in oftmals kritischer Konzentration finden lassen.

Öko-Antriebe erster Schritt

Viele sehen im Antrieb einen Lösungsweg – ob nun wasserstoffgetriebene Brennstoffzelle oder Elektroantrieb. Zwar wird die Luft in der Stadt durch die Verwendung sauberer Energie tatsächlich sauber, einen Ausweg für den wachsenden Verkehr bietet die alleinige Konzentration auf fortschrittliche Antriebskonzepte aber nicht.

Um sowohl etwa Elektromobilität und die bessere Auslastung der Verkehrswege gleichermaßen zu gestalten, setzen einige Kommunen und Automobilhersteller auf intelligente Mobilität. Hier bietet sich die Aufrüstung der Fahrzeuge mit Informationstechnologie an. Das Konzept des Smart Cars bietet dabei einige Entlastungen für Fahrer aber auch für Kommunen.

Vernetzung verbessert Situation

Zunächst können die Verkehrsströme mithilfe miteinander vernetzten Fahrzeugen effizienter gestaltet werden. Automatisch fahrende Fahrzeuge können den Verkehr flüssiger gestalten, denn Situationen, in denen menschliche Fahrer entweder zeitverzögert – etwa im Stau – oder gefühlsgesteuert agieren – etwa bei Konfliktsituationen, die sich aus dem laufenden Verkehr ergeben – fallen weg. Zudem können Städte, ähnlich den in den USA üblichen Fahrspuren für Wagen, die mit mehr als zwei Personen belegt sind, Smart Cars eigene priorisierte Fahrbahnen zuweisen. Auf diesen Fahrbahnen können automatische Fahrzeuge dichter fahren. Der Sicherheitsabstand kann geringer ausfallen, da die berühmte Schrecksekunde ausfällt. Bremst das erste Fahrzeug einer Kolonne, bremsen die nachfolgenden sofort automatisch mit.

Parkplatzsuche? Von gestern!

Doch nicht nur während der Fahrt hilft die Informationstechnologie beim Individualverkehr. Auch bei der Parkplatzsuche sind intelligente Systeme von Vorteil. Viel innerstädtischer Verkehr fällt mit der Parkplatzsuche an. Tonnen von CO2 sind alleine überflüssigen Fahrbewegungen zu verdanken. Ein intelligentes Konzept kann im Zusammenspiel mit einer Smart City das Auto direkt zu einem freien Parkplatz lotsen. Bei gebührenpflichtigen Stellplätzen kann auch das anfallende Parkentgelt automatisch vom Konto des Fahrzeughalters eingezogen werden. Die Situation auf den Straßen entspannt sich so. Außerdem können Smart Cars in die Mobilitätsplanung einbezogen werden. Strecken, die mit verschiedenen Verkehrsmitteln zurückgelegt werden, können so besser geplant werden.

Fahrzeuge beratschlagen sich

Weitere Vorteile, die Smart Cars mit sich bringen, sind etwa die bessere Vernetzung der Fahrzeuge. Künftig können Verkehrsmittel innerhalb eines bestimmten Radius ihre Fahrweise aufeinander abstimmen und sich gegenseitig vor etwaigen Verkehrshindernissen beziehungsweise schwierigen Straßenverhältnissen wie etwa Glatteis oder Nebel warnen.

Nur eine Frage des „wann“

Es ist nicht die Frage, ob Smart Cars kommen, sondern wann. Diese Entwicklung ist bereits anhand der intelligenten Fahrassistenzsysteme absehbar. Nahezu jedes Oberklassemodell ist bereits mit ihnen ausgestattet. Jedoch müssen die öffentlichen IT-Systeme bis zum flächendeckenden Erscheinen von Smart Cars ausreichend gerüstet sein, denn autonomes Fahren führt automatisch zu einem vermehrten Datenaufkommen. Die Technik, um dies zu bewerkstelligen, existiert bereits heute. Kommunale Verkehrsleitsysteme nutzen bereits heute – ohne Vernetzung mit dem einzelnen Fahrzeug – entsprechende Rechenzentren. Jeder, der einen Kartendienst wie Google Maps nutzt, profitiert bereits vom vernetzten Ansatz. Nur sind es heute nicht die Fahrzeuge, die mit der Stadt, den Straßen oder anderen Fahrzeugen interagieren, sondern Smartphones. Derzeit wertet der Kartendienst die Positionsdateien der Nutzer aus und errechnet die Verkehrsbelastung. Deswegen können Routen ständig und zeitnah an die aktuelle Situation angepasst werden. In Zukunft werden Smart Cars diese Entwicklung noch verstärkt antreiben. Neben den reinen Positionsdaten fließen andere Informationen in die Lenkung des eigenen Fahrzeugs mit ein.

Big Data ist Voraussetzung

Möglich wird dies durch bereits erhältliche Module. Mittels des Internets der Dinge (Internet of Things, IoT) können Sensoren an das weltweite Datennetzwerk angeschlossen werden. Individualverkehr und Verkehrsleitung verschmelzen zu einer einzigen Entität. Es entstehen gigantische Datenmengen – heutzutage in vielen Fällen noch in Datensilos, da Parkhausbetreiber, Kommunen, Polizei, Rettungskräfte sowie Smart Cars ihre Daten eigenständig und nicht miteinander verknüpft ablegen. Doch genau diese Verknüpfung und Auswertung der Verkehrsströme, -störungen, der freien und besetzten Parkplätze oder Baustellen bringt den Menschen in den Städten und Kommunen Entlastung. Doch dafür müssen alle Beteiligten, vom Autohersteller über Rettungsdienste und Polizei bis hin zu den kommunalen Betreibern auf eine leistungsfähige Management-Plattform setzen, die eine große Anzahl anfallender Daten effizient miteinander verknüpfen und verarbeiten kann. Ohne Big Data, der Auswertung unterschiedlich beschaffener Massendaten ist ein solches System nur schwer vorstellbar. Doch auch hier gibt es bereits erste Schritte in die richtige Richtung – vollkommen bereichsübergreifend.

Zum Schluss profitieren sowohl Kommunen als auch alle Verkehrsteilnehmer. Zwar ist die Nutzung von Big Data und autonomen Fahren auch eine Frage, die noch den Gesetzgeber beschäftigt – so ist beispielsweise noch nicht endgültig entschieden, ob bei einem Unfall im vollautonomen Modus der Fahrer oder der Hersteller des Fahrzeugs haftet. Auch der Datenschutz bei Speicherung der individuellen und fahrzeugbezogenen Informationen etwa in kommunalen Verkehrsleitsystemen bedarf einer endgültigen Klärung. Dennoch, technisch ist der Weg bereits geebnet. Wutausbrüche am Steuer, Kollisionen bei Spurwechsel, eine unterbliebene Rettungsgasse oder stundenlange Parkplatzsuche gehören somit der Vergangenheit an.

Über den Autor

Als Regional Vice President for Central, Eastern & Southern Europe ist Daniel Metzger bei Hortonworks für die Vertriebsteams, Partner und Kundenbeziehungen in der Region verantwortlich. Daniel Metzger ist ein erfahrener Vertriebsleiter, der in den letzten 20 Jahren in vielen strategischen nationalen und internationalen Projekten mitwirkte, u.a. in vorherigen Stationen bei BMC und MRO.

Die Revolution des Kaufens

Die zunehmende Vernetzung und der Vormarsch internetfähiger Geräte verändert nicht nur die technische Ausstattung des täglichen Lebens. Mit dem Komfort, der sich durch vernetzte Geräte etabliert hat, ist auch eine neue Mentalität bei Verbrauchern entstanden, die ihre Erwartungshaltung an Services und Produkte verändert hat. Für Unternehmen kristallisiert sich daher seit einiger Zeit ein neues Geschäftsmodell heraus – die Subscription Economy. Frank Unger, VP Sales DACH von Zuora erklärt den Wandel.

Im Jahr 2000 erhielt der Videoverleih-Gigant Blockbuster Video das Angebot, den damaligen Online-DVD-Verleiher Netflix für 50 Millionen Dollar zu kaufen. CEO John Antioco schlug das Angebot aus, da es sich nur um einen „Nischenmarkt“ handelte. Der weitere Verlauf ist bekannt: Während Blockbuster nach und nach sämtliche Filialen schließen musste, entwickelte sich Netflix zum Video-On-Demand-Vorreiter.

Da Netflix damals noch durchgehend Verluste machte, war die damalige Entscheidung vom wirtschaftlichen Standpunkt aus sinnvoll. Allerdings ist es eines der markantesten Beispiele, was Unternehmen blüht, die die Zeichen der Zeit nicht erkennen und durch ein Festhalten an veralteten Geschäftsmodellen zugrunde gehen. Ähnlich erfolgreich gestaltet der Sport-Streaming-Dienst DAZN sein Geschäft. Sie profitieren davon, keine Produkte mehr anzubieten, sondern diese als Service zur Verfügung zu stellen und machen sich die datengetriebenen Einblicke zunutze, die während der Nutzung kreiert werden.

Das neue Konsumverhalten

Mit der fortschreitenden Vernetzung hat sich auch ein Wandel im Konsumverhalten eingesetzt. Nutzer kaufen keine Filme mehr, sondern streamen. Statt sich Autos zu kaufen, buchen Sie per App einen Uber-Fahrer oder nutzen eines der zahlreichen Car-Sharing-Angebote. Andere lassen sich regelmäßig Öko-Kisten nach Hause liefern, um selbst weniger einkaufen zu müssen. Der Grund liegt auf der Hand: Es ist schlicht und einfach angenehmer. Es ist längst kein Geheimnis mehr, dass die „Customer Experience“ darüber entscheidet, welche Angebote sich bei Verbrauchern durchsetzen. Wo eine App reicht, um zum Ziel zu kommen, sparen sie sich gerne den Weg zu einem Händler, um etwas zu kaufen.
Für Unternehmen bedeutet das, ihre Kunden stärker binden und besser verstehen zu müssen, um ihnen die bestmöglichen Services anbieten zu können. Im Zuge dessen verändert sich auch das Geschäftsmodell. Der rein produktzentrierte Ansatz aus der Industrialisierung sieht vor, ein Produkt zu entwickeln und so viele identische Einheiten wie möglich davon zu verkaufen. Informationen zum Nutzungsverhalten oder zur Kundenzufriedenheit erhält man nur anhand der Verkaufszahlen. Die heutigen technischen Möglichkeiten machen es jedoch möglich, anhand der unzähligen Nutzungsdaten, ein detailliertes Bild davon zu erhalten, was den Nutzern gefällt und ihr Angebot dementsprechend auszurichten. Daher muss der Fokus darauf liegen, Kunden langfristig zu binden. So können Anbieter deren Präferenzen lernen und basierend auf dem Nutzerverhalten ihr Angebot und dadurch die Nutzererfahrung laufend verbessern.

Abonnement statt Besitz

Eine Abkehr vom traditionellen Kaufmodell hin zu einem Abonnement-Modell zur Stärkung der Kundenbindung bedeutet, seine Produkte nicht mehr zu verkaufen, sondern vielmehr als Service bereitzustellen. Indem Unternehmen Produkte nicht aus der Hand geben, sind sie in der Lage, deren Nutzungsdaten auszuwerten, um diese für sich zu nutzen und näher am Kunden zu operieren.

Wo bisher die physischen Objekte im Zentrum der Aufmerksamkeit standen, sind Anbieter nun in der Lage, den Kunden in den Mittelpunkt zu rücken. Indem sie ihre Produkte in Services verwandeln, die sich an das Nutzerverhalten anpassen und dadurch lernen, sind sie erst in der Lage, wirklich personalisierte Angebote bereitzustellen.

In den USA ist die Subscription Economy bereits als fester Bestandteil der Wirtschaft etabliert. Allein im E-Commerce wuchsen Subscription-Modelle in den letzten fünf Jahren jedes Jahr um 100 Prozent und steigerten den Umsatz seit 2011 von 57 Millionen auf 2,6 Milliarden im Jahr 2016.

Hierzulande nimmt dieses Geschäftsmodell gerade erst Fahrt auf. Der Versandhändler Otto bietet beispielsweise mit Otto Now ein Mietmodell an und Volvo hat mit Care by Volvo ein Abonnement-Modell im Angebot, das Autofahrer durch ein All-inclusive-Paket mit monatlicher Rate überzeugen will. Der schwedische Hersteller geht sogar davon aus, dass dieses Angebot bald sogar ein Fünftel des Gesamtumsatzes ausmachen wird. Auch andere Automobilhersteller testen bereits Mobility-as-a-Service (MaaS)-Angebote unterschiedlicher Art: Ford beispielsweise hat mit seinem Chariot-Angebot einen Shuttle-Service gestartet, der nach monatlicher Gebühr oder „pay-as-you-go“-Prinzip abrechnet. Auf diese Weise kommt der Nutzer regelmäßig von A nach B, ohne sich ein Auto kaufen zu müssen. Gleichzeitig bleibt er der Marke langfristig erhalten. Zudem fällt der Transport wesentlich komfortabler aus und das Modell beugt bei größerer Adoption Staus vor – aufgrund der großen urbanen Bevölkerungsdichte ein nicht zu unterschätzender Faktor.

Abonnement-basierte Geschäftsmodelle gehen heute weit über die ursprünglichen Bereiche heraus: Im industriellen Umfeld ist es für Kunden wesentlich effizienter, schwere Maschinen nutzungsbasiert vom Hersteller zu mieten (beispielsweise ein Traktor, der nach der Größe der bearbeiteten Fläche abgerechnet wird), als sie für hohe Beträge zu kaufen und sie zeitweise ruhen zu lassen. Anbieter von Haushaltswaren können intelligente Thermostate und Glühbirnen auf Abonnement-Basis für das Smart Home anbieten und ihren Kunden somit die neuesten Upgrades zugänglich machen. Das Internet der Dinge ermöglicht die Vernetzung ganzer Städte, wodurch sich im Bereich Mobilität, Nahverkehr, Energie und Verwaltung neue Informations-Hubs auftun. Subscription-Modelle bieten das intelligente Rahmenwerk für die permanente Interaktion zwischen Stadtbewohnern und der sie umgebenden Technologie, die zu einem nachhaltigeren Leben in der Stadt beitragen. So bieten große Energiekonzerne beispielsweise schon Abonnement-Modelle für einen „smarten“ Energieverbauch an.

Selbst der klassische Einzelhandel profitiert von Subscription-Modellen. Verbraucher legen heutzutage immer mehr Wert auf Erlebnisse anstatt dem Eigentum der Produkte selbst. Sie möchten selbst entscheiden zu welchen Bedingungen sie Produkte und Dienstleistungen abrufen und zwar ungebunden von Geschäftsstandorten oder Öffnungszeiten. Die digitale Vernetzung unserer Welt macht all dies möglich. Durch Abonnement-basierte Geschäftsmodelle kann der Einzelhandel Kundenverhalten besser verstehen und den Service kontinuierlich auf die individuellen Bedürfnisse der Kunden anpassen. Dadurch werden aus Gelegenheitskunden Stammkunden. Ein weiterer Vorteil ist zudem eine besser planbarere Finanzierung. Anstatt zu hoffen, dass eine gewisse Stückzahl an Einheiten verkauft wird, können Anbieter mit fortlaufenden Zahlungen der Kunden rechnen.

Kunden hingegen profitieren nicht nur von den auf sie zugeschnittenen Services. Statt eines einmaligen hohen Betrages müssen sie monatlich einen geringen Betrag aufwenden, was die Finanzierung für sie einfacher macht. Des Weiteren müssen sie sich nicht mit kaputten Produkten herumschlagen und können sich ein Bereitstellungsmodell aussuchen, das ihnen am besten passt.

Fazit: Abonnement gehört die Zukunft

Zeiten ändern sich. Das traditionelle und seit jeher gepflegte Tauschmodell „Geld gegen Ware“ steht kurz vor der Ablösung. In Zeiten unzähliger Angebote für vergleichbare Waren kann die Nutzererfahrung das Zünglein an der Waage sein, welcher Marke Verbraucher ihr Vertrauen schenken. Anbieter sind darauf angewiesen, noch näher am Kunden zu operieren und genau zu wissen, wie ihre Produkte ankommen. Die Vernetzung sämtlicher Geräte spielt ihnen dabei in die Hände und gibt ihnen Zugang zu wichtigen Daten, die sie zur Analyse heranziehen können. Dazu sind sie allerdings darauf angewiesen, ihr Geschäftsmodell zu überdenken. Denn wer nicht den Kunden ins Zentrum seines Geschäfts rückt, wird erst merken, dass dieser unzufrieden ist, wenn er weg ist.

Weitere Informationen unter:
www.zuora.com

Über den Autor:

Frank Unger ist seit dem 01.Mai 2017 Vice President für die DACH Region bei der Zuora Inc. Er verfügt über mehr als 30 Jahre Erfahrung im IT Vertrieb und hatte dabei die Vertriebsverantwortung in unterschiedlichen Rollen bei Unternehmen wie Parametric Technology, Documentum/EMC oder Salesforce.

Bereit für den Datenschutz

Gastbeitrag von Mervyn Kelly, EMEA Marketing Director bei Ciena

Am 25. Mai dieses Jahres ist die Datenschutz-Grundverordnung (DSGVO) in der Europäischen Union in Kraft getreten. Sie bietet einerseits den Bürgern den Schutz ihrer persönlichen Informationen, andererseits ist sie für Unternehmen eine Herausforderung. Informationen, mit deren Hilfe eine Identifizierung eines Menschen möglich ist, fallen unter ein besonders strenges Regelwerk.

Die neuen Bestimmungen sehen eine Harmonisierung der Datenschutzrichtlinien in der gesamten EU vor und ersetzt die bisherigen Vorschriften. Innerhalb von 72 Stunden müssen Unternehmen die zuständigen Behörden nach einer Entdeckung einer Datenschutzverletzung informieren. Diese Richtlinie gilt sowohl für alle Unternehmen und Organisationen in der EU als auch für solche, die zwar ihren Firmensitz außerhalb der Union haben, aber Waren und Dienstleistungen in den Gültigkeitsbereich der DSGVO liefern.

Mervyn Kelly, EMEA Marketing Director bei Ciena empfiehlt auch die Art der Datenübertragung im Kontext der DSGVO zu berücksichtigen und geeignete Schutzmaßnahmen zu wählen.

Ein Verstoß gegen die DSGVO könnte Unternehmen teuer zu stehen kommen. Verletzungen kosten sie wahlweise bis zu 20 Millionen Euro oder vier Prozent des weltweiten Jahresumsatzes – je nachdem, welcher Betrag höher ist. Dies ist wesentlich mehr als unter der alten Gesetzgebung, die Verstöße mit höchstens 300.000 Euro belegte. Die neue Direktive trägt den veränderten Bedingungen in der IT Rechnung und betrifft nicht nur ruhende, im Unternehmen oder der Organisation befindliche Daten, sondern schließt auch solche ein, die in öffentlichen, privaten beziehungsweise hybriden Cloudumgebungen übertragen werden.

Um die Sicherheit ihrer Organisationen in Zukunft zu gewährleisten, müssen Netzwerkbetreiber und Dienstleister daher wirksame Methoden zum Schutz ihrer Daten nicht nur bei der Speicherung, sondern auch während der Übertragung in Betracht ziehen.

Glasfasernetzwerke verletzbar

Nachdem festgestellt wurde, dass der Datenschutz für das C-Level der Unternehmen ein kritisches Thema ist – insbesondere für Unternehmen, die sich hauptsächlich mit Endverbrauchern befassen, wie z.B. im Banken-, Gesundheits- und Einzelhandelsbereich – ist es wichtig, die Möglichkeiten zu verstehen, die den Betreibern im Hinblick auf eine effektive Datensicherung zur Verfügung stehen. Die Sicherung der internen Infrastruktur ist nur ein Aspekt, auch die Daten, die über das Netzwerk transportiert werden, sollten berücksichtigt werden. Es ist relativ einfach, Informationen während der Übertragung über Glasfasernetze abzufangen. Mit einem relativ einfachen Fiber-Tap-Kit können Cyberkriminelle Informationen extrahieren, indem sie eine Weiche an das Glasfaserkabel anklemmen und das Signal spleißen – dies wird am einfachsten an Repeaterstationen und Anschlussdosen erreicht. Das Wissen über das Vorgehen ist ebenso einfach zu bekommen. Lehrvideos auf bekannten Streaming-Plattformen reichen aus, um lange Zeit unbemerkt Daten abzugreifen.

Dies verdeutlicht die Notwendigkeit, einen Schutz in das Datenübertragungssystem einzubauen, sodass die extrahierten Daten für den Hacker nicht lesbar sind.

Verschlüsselung als Waffe

Ein wirksames Mittel dagegen ist die Verschlüsselung des Datenverkehrs. Lösungen dazu befinden sich bereits auf dem Markt. Voraussetzung für einen spürbaren Schutz ist eine permanent laufende Verschlüsselung. Dadurch werden Bedienungsfehler ausgeschlossen, da sie nicht deaktivierbar und ständig aktiv ist. Manche Verschlüsselungen führen zu einem langsameren Datendurchsatz. Der IPsec-Datendurchsatz kann so je nach den zu verschlüsselnden Daten auf weniger als 50 Prozent sinken. Das kann vermieden werden, indem eine Hardware-basierte Layer-1-Lösung gewählt wird. So kann die Verschlüsselung nahezu verlustfrei erfolgen, was die Geschwindigkeit der Datenübertragung anbelangt. Außerdem ist bei einer Hardware-basierten Verschlüsselung mit einer niedrigen Latenzzeit zu rechnen. Eine hohe Latenz kann, da die Übertragung von Datenpaketen mit einer Prüfsumme auf die fehlerfreie Übermittlung überprüft wird, ebenfalls zu einer Verlangsamung des Datendurchsatzes führen, was zu einem negativen Nutzererlebnis führen kann.

Nicht zuletzt kann ein dediziertes Verschlüsselungsmanagement zu einem Plus an Sicherheit führen. Hier kann das Netzmanagement aufgeteilt werden. Die IT-Administration des Endkunden erhält die vollständige Kontrolle über Sicherheitseinstellungen, während der Netzbetreiber die Funktionalität des Netzwerks sicherstellt. Einer der Anbieter eines solchen Systems ist Ciena.

Mit zunehmender Regulierung müssen Betreiber die Sicherheit als oberste Priorität und Unterscheidungsmerkmal betrachten, da Kundenvertrauen und die Folgen von Datenverstößen je nach Situation Erfolg oder Untergang bedeuten können. Durch die Investition in eine effektive Verschlüsselung können Betreiber Schutz gewährleisten, ohne die Geschwindigkeit der Datenübertragung zu beeinträchtigen, und dadurch das Vertrauen und die Zufriedenheit ihrer Kunden erhöhen.

Weitere Informationen unter:
http://www.ciena.de/

Process Days 2018: Governance, Risk und Compliance prozessorientiert managen

Die neue GRC-Lösung von GBTEC – erstmalig präsentiert auf den Process Days 2018.
GBTEC lädt Kunden und Interessierte ein, um auf der Fachveranstaltung für Prozessmanagement über die Herausforderungen an unternehmensweites Governance, Risk & Compliance (GRC) zu diskutieren

 

Pressemitteilung, 30.05.2018
Schon zum 13. Mal empfängt GBTEC Software + Consulting AG seine Kunden sowie an Business Process Management (BPM) interessierte Entscheider im Juni 2018 auf der jährlich stattfindenden Veranstaltungsreihe Process Days. Teilnehmer erhalten auf der kostenlosen Roadshow einen fachspezifischen Einblick in aktuelle BPM-Themen und innovative Software-Lösungen. Zudem tauschen sie sich mit ausgewählten Fachreferenten über die Zukunft der digitalen Transformation aus. An den fünf Eventorten, die über den deutschsprachigen Raum verteilt sind, steht in diesem Jahr die prozessorientierte Steuerung von GRC (Governance, Risk & Compliance) im Vordergrund.

Risikomanagement

Internationale Regularien und gesetzliche Anforderungen haben sich in den letzten Jahren deutlich verschärft. Unternehmen stehen vor der großen Herausforderung, die sich wandelnden Vorgaben und Richtlinien Compliance-gerecht einzuhalten. Zudem gilt es, die Gefahr der Nicht-Einhaltung von Vorschriften durch unternehmensweites Risikomanagement zu minimieren. Um der Komplexität dieser Aufgaben gerecht zu werden, ist eine enge Zusammenarbeit der Handlungsebenen Corporate Governance, Risikomanagement und Compliance-Management erforderlich.

 

Automatisierung von GRC-Prozessen

Die BPM-Lösung BIC von GBTEC beinhaltet seit Jahren ein umfassendes Modul zur Modellierung eines Internen Kontrollsystems (IKS), mit dem zahlreiche Kunden unternehmerische Risiken erfolgreich organisieren. Bei der konsequenten Weiterentwicklung der Software hat sich GBTEC der Herausforderung gestellt, die BPM-Suite BIC Cloud um eine leistungsstarke Workflow-Engine zur Automatisierung von GRC-Prozessen zu erweitern.

Mithilfe der neuen Lösung, die bei Kunden aus verschiedensten Branchen im Einsatz ist, wird der gesamte Kreislauf eines Internen Kontrollsystems von der Identifikation über die Analyse und Steuerung bis zur Überwachung von geschäftlichen Risiken workflowgestützt abgebildet und protokolliert.

Neben der Risikoerfassung unterstützt BIC Cloud GRC zum Beispiel aktiv die Steuerung und Durchführung von Kontrollen, sowie Angemessenheits- und Wirksamkeitsprüfungen. Durch das intuitive Dashboard erfasst der Anwender schnell den aktuellen Status von Risiken und Kontrollen.

++ Gregor Greinke, Gründer und Vorstand von GBTEC Bildquelle: https://www.gbtec.de/

„Die neue Lösung BIC Cloud GRC findet bei unseren Kunden bereits großen Anklang. Auf den Process Days werden wir einen spannenden Einblick in das neue Tool geben. Die Besucher werden live erfahren, wie schnell und komfortabel die Erfassung neuer Risiken, Kontrollen und Maßnahmen mit BIC Cloud GRC erfolgt“, fasst GBTEC Vorstand Gregor Greinke zusammen.

Anschließend an die Produktvorstellung geben die Process Days einen praxisnahen Einblick in die konkrete GRC-Umsetzung eines großen internationalen Versicherungskonzerns. Der Fokus liegt hierbei sowohl auf den Herausforderungen des Konzerns als auch auf den dazugehörigen Lösungskonzepten des Risikomanagements.

Darüber hinaus erwartet die Besucher der Process Days ein Vortrag der BDO IT GmbH zur neuen Datenschutzgrundverordnung (DSGVO). Die konsequente Einhaltung der Verordnung erfordert risikoorientiertes Maßnahmenmanagement und steht damit im engen Zusammenhang mit den GRC-Anforderungen. Die Präsentation wird einen verständlichen Abriss über die neuen gesetzlichen Anforderungen sowie hilfreiche Tipps für eine flexible und toolgestützte Einhaltung der Vorschriften vermitteln.

 

Termine+

Das BPM-Event wird in diesem Jahr an den Standorten
Berlin (05.06.2018),
Frankfurt am Main (07.06.2018),
Zürich (14.06.2018),
Köln (26.06.2018) und
München (28.06.2018) angeboten.

Kostenfreie Tickets

Nähere Informationen sowie kostenfreie Tickets können über die Internetseite der GBTEC (www.gbtec.de) oder telefonisch unter +49 234 97645-132 bezogen werden.

 

 

Aufmacher / Quelle / Lizenz
Pixabay / CC0 Creative Commons

Erneuerbare Energien müssen flexibler werden

Gastbeitrag von Louis Shaffer, Distributed Energy Segment Manager EMEA bei Eaton

Die Zeit der fossilen Energieträger neigt sich langsam ihrem Ende entgegen, die Zukunft liegt vor allem in Wind- und Solarenergie. Doch wie stellen wir sicher, dass die Lichter nicht ausgehen, wenn Flaute herrscht oder Wolken aufziehen? Louis Shaffer, Distributed Energy Segment Manager EMEA bei Eaton, beschäftigt sich mit der Frage, wie sich Versorgungsengpässe vermeiden lassen.

Erneuerbare Energien, besonders Wind- und Solarenergie, werden in der näheren Zukunft die Hauptlast unserer Stromerzeugung stemmen. Das hat rein ökonomische Gründe, da die Erzeugungskosten in diesen Bereichen weiter fallen werden. Sowohl Endkunden, als auch Netzbetreiber müssen diesen Aspekt im Blick behalten, da dies einen großen Einfluss auf die Dynamik der Energiewende hat.

Veränderungen, die über einen langen Zeitraum eine neue ökonomische Realität schaffen, werden exponentielle Veränderungen genannt. Dabei finden pro Jahr nur geringe Änderungen von wenigen Prozent statt, über eine Zeitspanne von 40 oder 50 Jahren können diese aber ganze Branchen komplett umkrempeln. Moore’s Law brachte zunächst nur bessere Desktop-PCs hervor; heute beschert es uns Smartphones, kostenlose Langstreckenkommunikation und unbegrenzte Rechenkapazitäten, die erst den Aufstieg von künstlicher Intelligenz ermöglichen. Ein solcher Wandel verläuft schleppend und bleibt oft für mehrere Jahre unbemerkt, so dass sein revolutionärer Einfluss vielfach unerkannt bleibt. Doch plötzlich erreicht der stetige Wandel eine kritische Phase, nämlich dann, wenn das Preisleistungsverhältnis einen bestimmten Punkt erreicht. Was man schon bei Mikrochips und Flachbildschirmen beobachten konnte sehen wir nun auch bei Solar- und Windenergie.

Ökologisch und wirtschaftlich

Die Erneuerbaren haben die Schwelle zur billigsten Energieform schon überschritten und heute bekommen Ökostromprojekte Zuschläge aus rein ökonomischem Kalkül und ganz ohne Subventionen. Bei neuen Projekten haben die alternativen Energien schon die Nase vorn, doch bald werden sie auch günstiger sein, als die Energieerzeugung mit bestehenden konventionellen Kraftwerken. Dadurch wird sich unser Energiemix sehr schnell verändern und bald wird sich ein Großteil unserer Stromversorgung aus variablen regenerierbaren Energiequellen speisen. Das hat große Auswirkungen auf die europäischen Versorgungssysteme, sowohl von Kunden- als auch Netzbetreiberseite. Um rechtzeitig regulierende Maßnahmen zu treffen ist es wichtig, die wirtschaftlichen Triebkräfte und das rasante Tempo hinter dem Wandel zu verstehen.

Eine aktuelle Wirtschaftsstudie von Bloomberg New Energy Finance im Auftrag von Eaton und der Renewable Energy Association (REA) analysiert diese Zusammenhänge. Dazu wurden detaillierte meteorologische und ökonomische Daten ausgewertet, die zeigen, dass einer der Wendepunkte auf dem Weg der Erneuerbaren zur dominierenden Energieform schon erreicht wurde. Die Studie untersucht auch, ob es noch weitere solcher Wegmarken geben wird.

Schon heute ist Wind und Sonnenenergie billiger, als Strom aus neuen Kohle- und Gaskraftwerken, sowohl in Großbritannien, als auch in Deutschland. Die Marktentwicklung lässt darauf schließen, dass Ende 2020 Ökostrom aus neuerrichteten Produktionskapazitäten sogar konventionelle Energie aus bestehenden Kraftwerken im Preis unterbieten wird.

„Der Wendepunkt: Flexibilitätslücken in zukünftigen erneuerbaren Energiesystemen in Großbritannien, Deutschland und Skandinavien“ macht deutlich, wie schnell sich neue Energiequellen vermutlich ausbreiten werden. Außerdem zeigt die Studie die Notwendigkeit von ausreichend flexiblen Erzeugungsarten sowie möglichst klimaneutralen Back-up-Systemen. Denn bei regenerativen Energien ergibt sich das Problem von saisonalen Engpässen. Daneben erwarten die Analysten ein Wachstum in den Bereichen Elektromobilität und Energiespeicherung.

Mit dem Einsatz erneuerbarer Energien wächst die Unsicherheit

Während ein Mix aus verschiedenen erneuerbaren Energien immer öfter eine immer größere Nachfrage stillen wird, werden gleichzeitig häufiger Probleme mit der Unbeständigkeit von Sonne und Wind auftreten. Zusätzlich zu tageszeitbedingten Schwankungen kommen noch längerfristige Abweichungen, die sich zu saisonalen Engpässen auswachsen. Für die konventionellen Kraftwerke, die das Back-up-System bilden, stellt das eine große Herausforderungen dar – Kern- und Kohlekraftwerke lassen sich nicht spontan binnen Stunden hoch- und herunterfahren.

Doch auch die Batteriespeichertechnologie verzeichnet gerade einen enormen Kostenrückgang, was nicht zuletzt auch auf die steigende Nachfrage nach mobilen Geräten und Elektroautos zurückzuführen ist. Die Technologie befindet sich im Reifestadium und wird vermehrt eingesetzt um Energieangebot und -nachfrage in Einklang zu bringen. Vorausgesetzt, dass Regierungen und Behörden die Netzregularien anpassen, damit zentrale und dezentrale Batteriespeicher entstehen können, sind die Voraussetzungen geschaffen, um der Unbeständigkeit des Wetters entgegenzuwirken und dabei gleichzeitig ein umweltfreundliches, stabiles und kosteneffizientes Stromnetz zu schaffen.

Sonne und Wind sind natürlich nicht das ganze Jahr über in der gleichen Intensität verfügbar, was zu den saisonalen Engpässen führt. Besonders wenn Wolken oder Nebel und Windstille zusammenkommen, wird ein Alternativsystem benötigt, um der Nachfrage gerecht zu werden. Trotz des massiven Anstiegs bei der Erzeugung erneuerbarer Energien wird die 2040 benötigte Back-up-Kapazität etwa der von 2017 (70 – 97 GW) entsprechen, wie die Studie zeigt. Solche großen Lücken lassen sich nicht mit aktuellen Stromspeichertechnologien bewältigen. Dafür sind weitere Maßnahmen nötig, wie Erdgaskraftwerke, Biogasanlagen oder Übertragungsleitungen über lange Strecken.

Eine andere Möglichkeit wäre, dem Beispiel der Nordischen Länder zu folgen, deren Energiesystem zu großen Teilen auf Wasserkraft setzt. Die Stromerzeugung aus Wasser unterliegt weniger wetterbedingten Schwankungen und kann Defizite bei Wind und Sonne ausgleichen. Die Flexibilität der Wasserkraftwerke erlaubt es außerdem Strom gezielt aus dem Norden nach Deutschland und Großbritannien zu exportieren, wenn dort erhöhter Bedarf besteht.

Die Wirtschaftlichkeit von variablen Erneuerbaren Energien macht das Wachstum dieses Sektors unausweichlich. Die Studie wirft einen ökonomischen Blick auf die Geschwindigkeit dieses Wachstums und die Flexibilität, die nötig ist, um unser Stromnetz aufrecht zu erhalten und effizient zu betreiben. Schneller als wir glauben werden die Erneuerbaren einen Punkt erreichen, an dem sie für uns unverzichtbar sind. Das bringt neue Herausforderungen mit sich, in Bezug auf Unbeständigkeit und jahreszeitbedingte Ausfälle.

Genaue Daten legen Chancen und Risiken offen

Die Studie zeigt detailliert den Zeitverlauf des Wachstums bei Sonnen- und Windenergie sowie die Engpässe und führt dann verschiedene Möglichkeiten an, um den neuen Dynamiken und Problemen zu begegnen. Beispielsweise ist ein reguläres Speichernetz nicht nur essentiell um mit den großen Schwankungen zurecht zu kommen, die der Einsatz erneuerbarer Energien hervorruft, es würde auch den Einsatz von Back-up-Kraftwerken effizienter machen, da es die Nachfrage verwaltet und so Systemkosten senkt. In der nächsten Phase der Studie, die im Laufe des Jahres erscheinen wird, will Eaton mit REA, Bloomberg New Energy Finance und anderen Partnern die Analyse potentieller Lösungen und Chancen noch ausweiten.

Eines ist sicher, der Fortschritt lässt sich nicht aufhalten und regenerative Energien werden eine Schlüsselrolle in unserer Energieversorgung spielen. Um ein ausbalanciertes Wachstum dieser sauberen und günstigen Energiequellen in Kombination mit möglichst CO2-neutralen Back-up-Lösungen zu ermöglichen brauchen wir ein sorgfältig abgestimmtes Marktdesign. Die existierenden Batteriespeicherlösungen werden zusammen mit neuen Tools eine entscheidende Rolle bei der Energiewende spielen.

Weitere Informationen unter:
www.eaton.com

Schützenhilfe für die Suche nach dem idealen RPA-Begleiter

Ein neuer internationaler IEEE-Standard soll Begrifflichkeiten und Auswahlprozesse in Sachen intelligente Prozessautomatisierung (IPA) verbessern. Wichtige Schritte auf dem Weg zum RPA-Erfolg.

Digitalisierung und Prozessautomatisierung sind in aller Munde. Für eine effizientere Gestaltung ihrer Arbeitsabläufe fehlt Firmen jedoch bislang eine einheitliche Stoßrichtung, die sie verfolgen können. Die gemeinsame Initiative führender RPA-Anbieter unter Federführung des Institute of Electrical and Electronics Engineers (IEEE) möchte nun Abhilfe schaffen und für mehr Transparenz sowie einheitliche Kommunikation im Markt für Prozessautomatisierung sorgen. Die folgenden Ausführungen zeigen, was die IEEE-Initiative und Another Monday, der einzige deutsche Anbieter, der sich aktuell an diesem Vorhaben beteiligt, erreichen möchten, und worauf Unternehmen zu Beginn eines RPA-Projektes achten sollten.

Der Einsatz von Robotic Process Automation (RPA) ermöglicht Unternehmen Kostenersparnisse von bis 75 Prozent und Automatisierungsraten von bis zu 99 Prozent. Laut aktueller Studie „ISG Automation Index“ wollen bis zum Jahr 2019 rund 72 Prozent der befragten Unternehmen aus den USA, Großbritannien, Frankreich und Deutschland RPA im laufenden Betrieb oder als Test in Pilotprojekten einsetzen. Die Herausforderung: Der globale Markt für RPA ist stark fragmentiert – sowohl wenn es um die Anzahl der verschiedenen Lösungen geht, als auch hinsichtlich der Kernbegriffe. Welche Prozesse lassen sich automatisieren? Für welche Unternehmen lohnen sich Software-Roboter? Auch eine einheitliche Definition, die für Vereinfachung und Transparenz sorgt, fehlte bislang. Another Monday treibt nun als erster Anbieter aus Deutschland die Entwicklung eines Standards mit voran, der eine einheitliche Taxonomie und Klassifizierung für RPA zum Ziel hat. Mithilfe dieses Standards, der noch 2018 veröffentlicht wird, können Unternehmen auf der Suche nach der optimalen RPA-Lösung künftig ihre individuellen Anforderungen mit dem Marktangebot abgleichen.

IEEE-Standard enthält 160 Kriterien für RPA-Lösungen

Das Institute of Electrical and Electronics Engineers, kurz IEEE, ist ein anerkannter Zusammenschluss von Ingenieuren mit Expertise für technische Standards. Ein Bereich ist hierbei Intelligent Process Automation. Ein erster Standard, der die wichtigsten Definitionen aus den Bereichen RPA und IPA zusammenfasst und vereinheitlicht, ist bereits 2017 erschienen. Das IEEE-Komitee arbeitet zurzeit an einem zweiten Standard, der laut aktuellem Stand 160 Kriterien für RPA-Lösungen zusammenfasst. Darin werden relevante Aspekte transparent beschrieben und klassifiziert, damit Anwender marktgängige Technologien besser einordnen und vergleichen können. Die Taxonomie der Kriterien erleichtert es Unternehmen, zentrale Aspekte des eigenen Anforderungskatalogs zu bewerten – beispielsweise, wie skalierbar eine Automatisierungslösung und wie hoch der Implementierungsaufwand ist.

Der Standard ist für Unternehmen insofern wichtig, da es am Markt aktuell zahlreiche Technologien und Begrifflichkeiten für die softwarebasierte Prozessautomatisierung gibt, die den eigentlichen Nutzer in der Regel insbesondere zu Beginn eines Automatisierungsprojekts vor die schier unmögliche Aufgabe stellen, zu ermitteln, welche Lösung sich für die eigene Herausforderung eignet. Denn die eine beste Lösung gibt es nicht, lediglich die für die teils sehr spezifischen Anforderungen passende beste Option. Die Tatsache, dass sich der RPA-Markt rasant weiterentwickelt, erschwert diese Aufgabe zusätzlich.

Hans Martens: „Die Automatisierung betrieblicher Abläufe ist kein Projekt, das mit dem Tag der Implementierung abgeschlossen ist. Nur wenn sich hieran ein kontinuierliches Monitoring anschließt und Software-Roboter bei Veränderung der Systemlandschaft entsprechend angepasst werden, hat die RPA-Initiative Aussicht auf nachhaltigen Erfolg.“

RPA-Kenntnis schützt vor Fehlinvestitionen

Begriffe wie Robotic Desktop Automation (RDA), Robotic Process Automation (RPA) und Intelligent Process Automation (IPA) werden häufig synonym verstanden und genutzt. Kenntnisse über die feinen Unterschiede der Technologien und die diversen Einsatzgebiete könnten Firmen und Organisationen hingegen kostbare Zeit schenken. Klare Standards tragen dazu bei, Endverbraucher aufzuklären, Auswahlprozesse zu vereinfachen und verlässliche Qualitätskriterien festzulegen.

Transparenz und einheitliche Kommunikation im Markt für softwarebasierte Prozessautomatisierung sind eine positive Entwicklung für sowohl Endanwender als auch Anbieter und die Branche an sich. Unternehmen wird so die Suche nach einer für sie optimalen RPA-Lösung erleichtert, zugleich aber auch das Marktverständnis der Anbieter als Abgleich mit den sich stetig ändernden Kundenbedürfnissen verbessert. Hans Martens, Gründer von Another Monday, führt aus: „Der IEEE-Standard will eine bessere Einordnung und einen optimierten Vergleich marktgängiger Technologien erreichen. Prozessautomatisierung ist viel mehr als ein Software-Tool. Erst mit der richtigen Kombination aus Methodik und Technologie lässt sich die ideale Lösung finden und gemäß dem konkreten Anwendungszweck skalieren. Denn wenn Kunden frühzeitig verstehen, was genau eine RPA-Lösung leisten kann, ist die Basis für ein partnerschaftliches Verhältnis mit Investitionssicherheit gelegt.“

Leistungsstarken Begleiter und Partner für die Automatisierungsreise finden

Die Anbieterauswahl ist zentrale Aufgabe zu Beginn eines RPA-Projekts. Unter den zahlreichen Unternehmen, die ihre Vorzüge anpreisen, fällt es oft nicht leicht, die essentiellen Kriterien zu erkennen. Zudem wird unter RPA oft noch immer eine Technologie verstanden, die als Wunderwaffe jeden Prozess schnell und einfach automatisieren kann. Firmen müssen jedoch bedenken, dass sie das Werkzeug RPA effizient, umfassend und sinnvoll einsetzen müssen, um eine erfolgreiche sowie skalierbare Prozessautomatisierung zu realisieren. Da der derzeitige Fokus häufig auf dem RPA-Tool allein liegt, sind in der jüngsten Vergangenheit viele Automatisierungsvorhaben gescheitert. Daher sollte die detaillierte Analyse vermehrt in den Vordergrund rücken. Martens erläutert: „Die Automatisierung betrieblicher Abläufe ist kein Projekt, das mit dem Tag der Implementierung abgeschlossen ist. Nur wenn sich hieran ein kontinuierliches Monitoring anschließt und Software-Roboter bei Veränderung der Systemlandschaft entsprechend angepasst werden, hat die RPA-Initiative Aussicht auf nachhaltigen Erfolg.“

Gut geplante Automatisierungsreise

Bereits bei der Auswahl geht es um die Gestaltung der „Automatisierungsreise“: Wie begleitet und vor allem befähigt ein RPA-Anbieter zu einer erfolgreichen Automatisierung? Wer diese Frage zukunftsorientiert beantworten will, muss die Strategie des jeweiligen Anbieters genau unter die Lupe nehmen: Vertreibt das Unternehmen reine Lizenzen und liegt der Fokus auf einer schnellen Verbreitung? Oder ist der Anbieter an einer partnerschaftlichen Beziehung interessiert und kann eine Skalierung der angebotenen Lösung ermöglichen?

Beratungskompetenz als Schlüssel zum Erfolg

Der Schlüssel erfolgreicher RPA-Projekte ist eine klare Methodik bei der Implementierung mit sauberer und intensiver Prozessanalyse. Unternehmen sollten sicherstellen, dass der potentielle Anbieter eine derartige Methodik und die nötige Beratungskompetenz vorzuweisen hat. Sofern RPA auch zu einer unternehmensinternen Kompetenz geworden ist, lässt sich langfristig selbst automatisieren. Der Anbieter sollte im Idealfall RPA als ein ganzheitliches Projekt angehen, das mit einer intensiven Beratung und Analyse startet und alle relevanten Entscheider miteinbezieht.

Zudem muss umfassende Akzeptanz für das RPA-Projekt geschaffen werden, und der Anbieter sollte dem Anwender-Unternehmen von der Entwicklung bis zur Implementierung und auch nach Inbetriebnahme der Software-Roboter beratend zur Seite stehen. RPA ist hierbei kein Allheilmittel, sondern eine intelligente Ergänzung, um ein effizientes Zusammenspiel von Mensch und Maschine zu ermöglichen. Rentiert sich der Einsatz nicht, ist ein Abraten vonseiten des Anbieters sinnvoll und fair. Last but not least muss auf ein transparentes und faires Preismodell geachtet werden: Pay-Per-Use Preismodelle, bei denen pro erfolgreich automatisiertem Prozessdurchlauf abgerechnet wird, zeigen, ob ein Anbieter von seiner Lösung überzeugt ist. Gleichzeitig sorgt dieses Preismodell für eine erfolgreiche Automatisierung.

Blick in die Zukunft: RPA im Spannungsfeld Künstlicher Intelligenz

Zwar ist Künstliche Intelligenz derzeit eines der viel diskutierten Trendthemen schlechthin. Jedoch sind viele Unternehmen und Branchen noch nicht soweit, dass KI zentrale Aspekte der Wertschöpfung aufnimmt. Bei RPA-Projekten geht es zunächst darum, manuell-intensive, wiederholbare Prozesse ausfindig zu machen, die sich automatisieren lassen. Im Zusammenspiel mit Ansätzen, die auf Künstlicher Intelligenz basieren, ließe sich diese Auwahl bestgeeigneter Automatisierungsprozesse unterstützen, optimieren und abermals automatisieren. Allerdings ist dies aktuell noch Zukunftsmusik. Ein Roboter, der eigenständig lernt, benötigt Unmengen an Informationen, die zunächst gesammelt werden müssen – ein langwieriges und auch rechtlich schwieriges Thema.

KI und Machine Learning kommen heute primär dort zum Einsatz, wo große Datenmengen analysiert, verglichen oder strukturiert werden. Doch während KI und Machine Learning den Bereich des Lernens und Denkens abdecken, behandelt RPA das wichtige Ausführen der jeweiligen Arbeitsschritte. Um Geschäftsprozesse intelligent zu automatisieren, macht die Kombination beider Bereiche Sinn. Der nächste Schritt werden sogenannte „Selfhealing Robots“ sein, die beispielsweise nach einem Software-Update oder Patch eigenständig etwaige Änderungen in den grafischen Oberflächen der automatisierten Programme abfangen und sich so selbst reparieren. Mit dieser Lösung wird sich der Pflegeaufwand großer Roboterfarmen enorm senken lassen.

Weitere Informationen unter:
www.anothermonday.com

Beim Talent Management klaffen Wunsch und Wirklichkeit weit auseinander

Dies ist ein Gastbeitrag von Steve Wainwright, Managing Director, EMEA der Skillsoft Gruppe

Die große Mehrheit deutscher Unternehmen hat die Wichtigkeit von Talent Management erkannt. Vermehrt werden bereits entsprechende Technologieplattformen eingesetzt. Alles gut? Keineswegs! Es fehlt nicht an Systemen, sondern an System!

65% aller Personaler finden ihr Talent Management innovativ. Aber nur knapp 30 % der Mitarbeiter stimmen dem zu. Zu diesem Ergebnis kommt die aktuelle Studie „Trust in Talents“ der Personal- und Managementberatung Kienbaum. Darüber hinaus stufen 83% der 204 befragten HR-Entscheider die Dringlichkeit von Talent Management als hoch ein. Doch nur jedes zweite Unternehmen hat bereits eine Strategie entwickelt, wie qualifizierte Mitarbeiter gezielter rekrutiert, gefördert sowie möglichst langfristig gehalten werden können.

Entsprechend hoch ist der Frustrationsfaktor, wie der repräsentative „Gallup Engagement Index“ zeigt: Demnach verspüren 70% der rund 1.400 befragten Arbeitnehmer in Deutschland lediglich eine geringe Bindung an ihren Job und verrichten mehr oder weniger Dienst nach Vorschrift. Weitere 15% haben bereits innerlich gekündigt. Die damit verlorengegangene Produktivität kostet die deutsche Volkswirtschaft laut Gallup 105 Milliarden Euro jährlich.

Vorgesetzte überschätzen ihre Führungskompetenz

Neben unzureichenden Weiterbildungsangeboten – speziell zu digitalen Themen – und geringen persönlichen Entwicklungsperspektiven ist die schlechte Führungsqualität von Vorgesetzten ein großes Ärgernis von Mitarbeitern, das nicht selten auch Grund für eine Kündigung ist. Auch in diesem Punkt besteht offenbar ein krasses Missverhältnis zwischen der Eigenwahrnehmung von Führungskräften und den Wünschen der Mitarbeiter: wie die Gallup-Studie herausfand, ist nur jeder Fünfte aufgrund der erlebten Führung in seinem Unternehmen hochmotiviert, überdurchschnittlich gute Arbeit zu leisten. Das sehen die Vorgesetzten ganz anders – 97% halten sich für gute Führungskräfte.

Besonders aufschlussreich sind in diesem Zusammenhang die weiterführenden Ergebnisse des Statista Arbeitgeber-Rankings 2018: sie zeigen, dass die Bewertungskriterien „Miteinander & Vorgesetztenverhalten“ sowie „Weiterempfehlung & Perspektiven“ den meisten Arbeitnehmern am wichtigsten bei der Wahl ihres bevorzugten Arbeitsplatzes sind. Image und Unternehmenswachstum folgen als Kriterien hingegen erst an dritter Stelle.

Die Diskrepanz zwischen Selbsteinschätzung und Wirklichkeit zeigt: viele Unternehmen schießen in Sachen Talent Management am Ziel vorbei. Zwar wurden in den vergangenen Jahren bereits zahlreiche Investitionen in die Implementierung von Talent Management-Systemen getätigt. Ohne eine grundlegende, an den (digitalen) Geschäftszielen ausgerichtete Strategie bleibt jedoch vieles Stückwerk. Doch wie kann eine wirksame Positionierung der eigenen Organisation im branchenübergreifenden „War for Talents“ gelingen? Die folgenden 5 Überlegungen sollten beim Aufbau einer nachhaltigen Strategie unbedingt einfließen:

Steve Wainwright empfiehlt Weiterbildung als klassisches Mittel zur Mitarbeiterbindung.

1.: Stellen- & Mitarbeiterprofile wandeln sich (künftig permanent)
Das Geschäftsfeld vieler Unternehmen wird im Zuge ihrer digitalen Transformation vielseitiger, umfangreicher und komplexer. Besonders deutlich wird dies am Beispiel des Finanzsektors: hier werden verlustreiche klassische Geschäftsfelder zunehmend durch ein ganzheitliches Portfolio für private und geschäftliche Kunden kompensiert. Die ehemals klare Abgrenzung des Bank-und Versicherungsgeschäfts ist kaum mehr erkennbar.

Die digitale Arbeitswelt erfordert also einen gänzlich anderen Mitarbeitertypus – mit einer wesentlich breiteren Einstiegsqualifikation, permanenter Lernbereitschaft, hoher digitaler Affinität und nicht zuletzt einer ausgeprägten Kompetenz zur Zusammenarbeit in virtuellen Teams. 2 grundlegende Fragestellungen müssen daher klar beantwortet werden: Welche Qualifikationsprofile werden für bestimmte Aufgaben heute und in Zukunft benötigt? Und welches Wissen muss vermittelt werden, um dazu Kompetenz „von innen heraus“ aufzubauen?

2.: Führungskräfte müssen Potenziale erkennen und fördern
Auch das Anforderungsprofil an Führungskräfte hat sich wesentlich gewandelt – insbesondere mit Blick auf ihre Führungseigenschaften. Auf der Grundlage der Unternehmensziele sollten sie in der Lage sein, künftig benötigte Stellen- und Qualifikationsprofile zu entwickeln und kompetente Fachkräfte aufzubauen. Anstelle eines einmaligen Mitarbeitergesprächs pro Jahr sollte eine gute Führungskraft permanente Impulse und regelmäßiges Feedback an die unterstellten Mitarbeiter geben und diese individuell fördern. Die Steuerung praxisnaher Schulungen zur Vorbereitung von Fachkräften auf neue Aufgaben gehört heute ebenfalls zum Verantwortungsbereich einer modernen Führungskraft. Der Aufbau einer emotionalen Mitarbeiterbindung an das Unternehmen hängt wesentlich vom Verhältnis zum direkten Vorgesetzten ab.

3.: Veränderte Job-Prioritäten der Millenials
Die Generation der sogenannten „Digital Natives“ ist erstaunlich konservativ eingestellt. Entsprechend haben sich die Erwartungen und Wertvorstellungen an den Beruf verändert: Galten für die Vorgängergeneration noch flexible, weitgehend selbstbestimmte Arbeitszeiten, Home Office, BYOD und Facebook am Arbeitsplatz als oberste Prämisse, orientieren sich die Prioritäten der Millenials vorwiegend am Aspekt Sicherheit. Arbeitsplatzsicherheit, nachhaltig fachliche und persönliche Entwicklungsperspektiven, klar strukturierte Karrierepfade und eine angemessene Work-Life-Balance fallen in Umfragen unter dieser Personengruppe als häufigste Stichwörter.

4.: Talent Management für alle Mitarbeiter
Talent Management sollte nicht exklusiv auf Führungskräfte oder junge Talente, die neu zum Unternehmen stoßen, beschränkt sein. Ziel muss vielmehr sein, alle Mitarbeiter einzubeziehen. Denn in der Belegschaft schlummert viel Talent. Vor dem Hintergrund des sich verknappenden Fachkräfteangebots am Arbeitsmarkt kann das Entdecken und die gezielte Förderung bislang ungenutzter Potenziale eine echte Alternative zur Neu-Rekrutierung sein. Und es ist möglicherweise effektiver, vakante Positionen mit „gestandenen“ Fachkräften zu besetzen: Denn Schätzungen zufolge braucht ein neuer Mitarbeiter bis zu 38 Wochen, um sein volles Potenzial in einer neuen Stelle zu entfalten. Hingegen kennen Arbeitnehmer, die bereits längere Zeit im Unternehmen tätig sind, die internen Geschäftsabläufe, Vernetzungen und Gepflogenheiten bereits wesentlich besser.

Ein Talent Management für Alle kann ein wirksames Instrument gegen Frustration und innere Kündigung sein. Dies erfordert jedoch die Entwicklung umfassender Konzepte zur individuellen Mitarbeiterförderung. Zur Erinnerung: Mitarbeiter wünschen sich heute von ihrem Arbeitgeber keine Positionen, an denen sie auf unbestimmte Zeit festkleben, sondern einen strukturierten Plan zur Karriereentwicklung. Laut zitierter Kienbaum Studie können sich Mitarbeiter bislang jedoch nur in jedem 3. Unternehmen abseits der „klassischen“ Karrierepfade entwickeln. Es gilt also mehr denn je, das Potenzial jedes einzelnen Mitarbeiters im Unternehmen zu identifizieren und permanent weiter auszubauen.

5.: Die richtigen Anreize setzen
Für Arbeitnehmer ist die Möglichkeit, das zu tun, was man richtig gut kann, fünf Mal mehr wert als das Gehalt, so die Gallup Studie. Mitarbeiter wollen lernen! Speziell im Hinblick auf digitale Fähigkeiten bilden sich bereits mehr als zwei Drittel aller Arbeitnehmer privat weiter. Denn der digitale Wandel schürt Ängste vor einem Arbeitsplatzverlust. Hier können Unternehmen definitiv punkten, wenn sie ein umfassendes, praxisnahes und diversifiziertes Lernangebot zu digitalen Themen vorhalten, das die persönliche Karriereentwicklung positiv beeinflusst.

Indem digitale Kompetenz aufgebaut und kontinuierlich entwickelt wird, können Arbeitgeber der Verunsicherung ihrer Mitarbeiter entgegenwirken. Dieses starke Signal an die Belegschaft – ‚wir lassen Euch nicht im Regen stehen‘ – kann sowohl die Leistungsbereitschaft und Produktivität der Mitarbeiter signifikant steigern als auch eine hohe emotionale Bindung an das Unternehmen schaffen.

Fazit:

Kontinuität statt starrer Positionen, gestalten statt verwalten, motivieren statt blockieren – damit lässt sich im „War for Talents“ erfolgreich punkten. Gerade Unternehmen, die im Arbeitgeber-Ranking nicht unter den Top 10 ihrer Branche rangieren oder deren Branche per se ein Attraktivitätsproblem hat, sollten die Anforderungen ihrer Mitarbeiter stärker adressieren. 2 Dinge sind festzuhalten: Talent Management ohne Strategie ist wie ein Sportwagen ohne Zugkraft. Und: Talent Management muss endlich zur Chefsache werden. Dann kann es ein machtvolles Steuerungsinstrument sein, um qualifizierte Mitarbeiter zu gewinnen, zu entwickeln und – über Motivations-, Lern- und Anreizsysteme – langfristig im eigenen Unternehmen zu halten.

Weitere Informationen unter:
www.skillsoft.com

 

Bildquelle Aufmacher: https://www.shutterstock.com/de/image-photo/freelance-work-casual-dressed-man-sitting-289151351 (zur Verfügung gestellt von Skillsoft)

Bildquelle / Lizenz Portrait: Steve Wainwright / Skillsoft

Forschung und Entwicklung in Zeiten des IoT

Dr. Armin Schulz ist überzeugt davon, dass auch die Forschung und Entwicklung in den Unternehmen sich vor dem Hintergrund des Internets der Dinge neu aufstellen muss. Essenziell wird es aus seiner Sicht sein, in Services und Dienstleistungen ausgehend von den Bedarfen der Kunden zu denken. Die dadurch entstehenden Herausforderungen erläutert der Geschäftsführer von 3DSE Management Consultants im Gespräch mit der TREND REPORT-Redaktion.

Vor welche Herausforderungen stellt das IoT die F&E Bereiche in Unternehmen?
Das IoT basiert ja auf der Vernetzung von bisher einzelnen, getrennten Systemen. Der Wert eines Systems, also der Nutzen, den es für einen Anwender bietet, basiert zukünftig stark auf der Vernetzung mit anderen Systemen und den sich daraus ergebenden Möglichkeiten. Zudem werden neue, „systemübergreifende“ Angebote möglich für Dienstanbieter, die mehrere Systeme nutzen, aber kein eigenes System entwickeln oder anbieten. Für die F&E Bereiche bedeutet das vor allem, dass sie zukünftig stark über die Grenzen ihres eigenen Systems hinausdenken und sich fragen müssen: „In welchem Netzwerk agiert mein System bzw. muss mein System funktionieren?“ Der Betrachtungsumfang wird somit ein ganz anderer. Die Schwierigkeit dabei entsteht daraus, dass ein Großteil der anderen Systeme im Netzwerk überhaupt nicht selbst beeinflusst werden kann, aber das Zusammenspiel trotzdem beherrscht werden muss. Den Anwender interessiert es nicht, wer der „Owner“ eines Systems ist, er will nur, dass das Produkt oder der Service, den er kauft, funktioniert, unabhängig davon welche Systeme im Hintergrund zusammenwirken müssen. F&E Bereiche müssen daher neue Kompetenzen aufbauen, um das Spiel unter den neuen Spielregeln erfolgreich zu gestalten. Was sind die Use Cases des Kunden? Wie läuft die Customer Journey ab? Welche Rolle spielt mein System in dieser Customer Journey? Wie gewährleiste ich das einwandfreie Zusammenspiel meines Systems mit den anderen Systemen im IoT? Das Denken vom Kundenproblem her und in Systemverbünden wird ganz neue Bedeutung bekommen.

Welche Rolle spielt in diesem Zusammenhang die Unternehmenskultur, insbesondere in F&E-Bereichen?
Das ist eine interessante Frage. Wir haben eben über die Notwendigkeit gesprochen, zukünftig über die bisherigen Grenzen des eigenen Systems hinauszudenken. Dies macht vor allem eine Öffnung der bisher meist sehr „geschlossen“ agierenden Unternehmen notwendig. Ich muss mich stärker mit anderen auseinandersetzen: „Was passiert in meinem Systemumfeld? Mit wem kann ich interagieren?“. Unternehmen müssen eher in Kooperationen agieren, als im klassischen OEM-Lieferanten Verhältnis. Dies erfordert in den meisten Unternehmen ein starkes Umdenken. Das Kundenproblem muss stärker in den Mittelpunkt gestellt werden, als das eigene Produkt. Auf Grund der Dynamik im IoT, die auch durch das Zusammenspiel der vielen verschiedenen Player entsteht, muss in einer ganz anderen Geschwindigkeit entwickelt und Lösungen am Markt angeboten werden. Fehlschläge dürfen dabei nicht als Katastrophe angesehen werden, sondern als Chance etwas zu lernen und zu verbessern. Unternehmen sollten sich immer wieder mit „frischer DNA“ von außen anreichern, um sich weiterzuentwickeln. Die Fähigkeit dies zuzulassen und konstruktiv voranzutreiben, hängt in großen Maße von der Unternehmenskultur ab und der – wie wir es nennen – „vorherrschenden dominanten Logik“. Diese kann aber nicht „über Nacht“ verändert werden. Eine große Rolle spielt dabei die Unternehmensführung – nicht nur was sie sagt, sondern vor allem auch jeden Tag vorlebt. Wenn eine Veränderung nicht nur jeden Tag gepredigt, sondern auch authentisch danach gehandelt wird und auch die Gründe dafür überzeugend erläutert werden, dann ist die Chance groß, dass die Mannschaft folgt.

Dr. Armin Schulz sieht die zentrale Frage in der zukünftigen F&E Aufstellung darin, neue Services und Produkte vom Kunden her zu denken.

Dr. Armin Schulz sieht die zentrale Frage in der zukünftigen F&E Aufstellung darin, neue Services und Produkte vom Kunden her zu denken.

Wie müssen Unternehmen sich in der F&E aufstellen, um für die Herausforderungen vorbereitet zu sein?
Ich bin überzeugt, dass es essentiell sein wird, sich sehr viel stärker vom Kundenproblem her nach Customer Journeys und Use Cases aufzustellen, als vom Produkt bzw. System und seinen Subsystemen her. Was die Unternehmen in einigen Jahren liefern werden, sind nicht mehr die Systeme, sondern die Features, die die Kundenprobleme adressieren. Ich denke, das muss sich auch in der F&E Aufstellung niederschlagen. Dabei wird dem Design der Kundenschnittstelle und dem Thema User Experience, kurz UX, große Bedeutung zukommen. Um die Features und die UX richtig zu gestalten, sind Daten über das Kundenverhalten und die Nutzung der Features der Dreh- und Angelpunkt. Diese Daten müssen zentral zusammengeführt, intelligent ausgewertet und in der richtigen Art und Weise interpretiert werden. Auch hierfür sind die passende Aufstellung und vor allem der Aufbau der relevanten Kompetenzen notwendig. Die Interaktion mit dem Kunden muss die Form einer Co-Creation annehmen. Die Kundenschnittstelle darf nicht mehr einzig in einer Marketingeinheit beheimatet sein, sondern muss direkt und schnell sein. Die klassischen Lieferantenverhältnisse müssen sich zu partnerschaftlichen Kooperationsformen wandeln. Open Innovation im Netzwerk mit Partnern, Startups, Instituten, Lieferanten, Wettbewerbern und anderen muss zur Norm werden. Kernkompetenzen müssen überdacht werden: „Wo und wie will ich mich positionieren?“ Um „Dream-ons“ zu vermeiden muss man sich an den eigenen Stärken orientieren und diese im Kontext IoT zukunftsfähig interpretieren. Systemkompetenz für Netzwerke von Systemen muss aufgebaut werden. Die Organisation muss in Ökosystemen denken und die Fähigkeit zur Gestaltung von Ökosystemen entwickeln. Dabei darf der Fokus nicht nur auf der Hardware liegen, sondern vor allem auf den Features und Services, die auf Basis der Hardware möglich werden. Hierzu ist es auch wie schon erwähnt notwendig, sich von klassischen Geschäftsmodellen zu lösen und die Art und Weise wie zukünftig die Ertragsströme entstehen völlig neu zu denken. „Fail fast and early“ muss als Chance erkannt werden, etwas auszuprobieren, statt alles langfristig planen und durchdenken zu wollen. Damit will ich aber nicht sagen, dass die Silicon Valley Mentalität im IoT-Kotext überlegen ist. Ich bin überzeugt, dass es den richtigen Mix aus beiden Welt braucht: sozusagen Silicon Valley Mentalität gepaart mit „German Engineering“.

Wie wird die Schnittstelle zum Kunden zukünftig aussehen?
Sehr verkürzt würde ich sagen: einfach, direkt, transparent und immer verfügbar. Immer mehr neue Player besetzen durch extrem einfache, intuitive, und „sexy“ Lösungen die Kundenschnittstelle und setzen sich zwischen Kunden und alteingesessene Hersteller. Ein schönes Beispiel ist hier das Start-Up TADO. TADO hat das Kundenproblem der steigenden Energie- und Heizungskosten erkannt und verstanden: mit einer einfachen, intelligenten Thermostat-Lösung, die hilft Heizungskosten zu sparen und über eine App gesteuert wird, hat sich TADO etabliert und sich so zwischen die Heizungsanbieter und den Endkunden geschoben. Der Trend geht ganz klar zu einem kontinuierlichen Dialog mit dem Kunden, um durch die permanente, datenbasierte „Beobachtung“ seines Verhaltens besser zu verstehen, was er braucht oder zukünftig brauchen könnte sowie zu einer höherfrequenteren Lieferung von Mehrwert durch neue Features – nicht nur alle paar Jahre beim Launch eines neuen Produkts. Schlüsselfähigkeiten werden hierfür Kundenverständnis und Geschwindigkeit sein. Die Schnittstelle der Zukunft wird digital sein, weniger persönlicher, dafür aber personalisierter und individueller auf die einzelnen Bedürfnisse zugeschnitten.

Auf der 3DSE-Leitkonferenz in der BMW-Welt in München steht der Austausch auf einer hochkarätigen Ebene im Vordergrund.

Auf der 3DSE F&E Leitkonferenz in der BMW Welt in München steht der Austausch auf einer hochkarätigen Ebene im Vordergrund.

Welche kritischen Entscheidungen sind jetzt zu treffen, um handlungsfähig zu sein?
Die zentrale Frage ist aus meiner Einschätzung heraus: „Worüber will ich zukünftig Wert für meine Kunden generieren? Welche sind die Wertströme, die ich im IoT bedienen möchte?“. Ich muss Klarheit darüber bekommen, aus welchen Diensten meine Kunden im IoT zukünftig Wert ziehen werden und welche Rolle ich dabei haben möchte. Darauf aufbauend muss ich mich damit auseinandersetzen, welche Schlüsseltechnologien (z.B. Datenanalytik, künstliche Intelligenz, over-the-air-updates, Kryptographie, etc.) und Fähigkeiten (z.B. Gestaltung von Geschäftsmodellen, UX Design, agile feature Entwicklung) ich als Organisation brauche, um diese zukünftige Positionierung zu bedienen. Kann ich das alleine oder brauche ich dafür Partner? Dieser strategischen Stoßrichtung sollte man dann konsequent folgen und Dinge ausprobieren, lernen und basierend auf den Learnings die Richtung korrigieren. In gewisser Weise muss eine Art Transitionsszenario hin zu einer IoT-orientierten Organisation aufgebaut werden. Da im IoT aber vieles nicht vorhersagbar ist, muss man sich auch zwingend Optionen rechts und links vom dominanten strategischen Pfad offenhalten.

Welche Erkenntnisse können Teilnehmer Ihrer F&E Leitkonferenz in diesem Zusammenhang erwarten?
Ich glaube besonders interessant ist mit Sicherheit das Branchenspektrum, das vertreten sein wird. Dies ermöglicht einen guten Überblick, an welchen Lösungen die unterschiedlichen Firmen arbeiten und Transparenz darüber, mit welchen Ansätzen die oft ähnlichen Herausforderungen angegangen und ggf. bereits gelöst wurden. Es sind Firmen vertreten, die in ihrem Bereich als führend anzusehen sind (z.B. Bosch, BMW, Intel, Infineon, John Deere, BSH, Continental, Airbus), sodass ein Austausch mit den Besten möglich wird. Ohne zu übertreiben denke ich, dass Sie derartig wertvolle Insights und intensiven Kontakt mit gleichgesinnten Top F&E Führungskräften aus den unterschiedlichen High-Tech Industrien die alle vor sehr, sehr ähnlichen Herausforderungen stehen, in so verdichteter Form nirgendwo anders bekommen.

Weitere Informationen unter:
www.3dse.de
www.fue-leitkonferenz.de