Digital Banking – die größten Herausforderungen für Finanzinstitute

Die globale Finanzkrise ist längst vorbei, aber eine andere Art von “Krise” macht den Banken aktuell zu schaffen – die Digitale Transformation. Erstaunlich, denn eigentlich sollten die Institute mit der Digitalisierung ihrer Services keine Probleme haben.

Hat doch kaum eine andere Branche so früh wie der Finanzsektor sich mit dem Digitalen auseinandergesetzt: Online Banking ist seit gefühlten Ewigkeiten Standard; Kontoauszüge auf Papier gibt es kaum noch und wenn dann meist nur via Self-Service am Bankautomaten; Aktien werden seit über 20 Jahren quasi nur noch Online gehandelt – die Liste ließe sich hier beliebig weiterführen.

Und dennoch werden die klassischen Finanzinstitute aktuell von verschiedenen Seiten in die Zange genommen. Steigender regulatorischer Druck, der rasante Durchbruch des Smartphones, FinTechs, nicht-traditionelle Konkurrenten, rückläufiger Filialverkehr – all das macht es den Banken nicht leicht.

Zudem steigen die Kundenerwartungen immer weiter an. Privatkunden, aber immer öfter auch Firmenkunden, sind mittlerweile fast nur noch mobil unterwegs und durch den eCommerce (Amazon & Co.) andere Services gewohnt, als ihnen die klassische Bank hier bietet.

Die Finanzinstitute haben die Zeichen und die Not zu handeln erkannt. So gibt es zur Zeit wohl keine Bank, die nicht mit Macht an der Digitalen Transformation arbeitet. Aufgeben ist keine Option, aber das Aufholen ist nicht einfach und kostet Zeit. Hinzu kommen weitere Hürden, die teilweise nur im Banken- und Versicherungssektor bestehen. Im Folgenden soll auf einige der wichtigsten Herausforderungen für modernes Digital Banking eingegangen werden.

Kulturelle Aspekte bremsen die Transformation

In der Vergangenheit konnten Banken die Herausforderungen des Wandels meist ohne große Mühe meistern. Oftmals waren sie diejenigen mit dem größten Budget und konnten somit technische Neuerungen schnell umsetzen. Jedoch ist die Digitale Transformation nicht alleine mit digitalen Produkten und einem entsprechenden Budget zu bewältigen.

Denn neben Technik, ohne die es natürlich nicht geht, sind für den Erfolg der Digitalen Transformation vor allem Unternehmenskultur, Organisationsstruktur sowie die individuelle Einstellung von Entscheidern und Mitarbeitern von Bedeutung. Hinzu kommt eine gewisse Experimentierfreude mit der Bereitschaft, auch mal zu scheitern. Aber genau daran mangelt es den klassischen Banken.

Ein Beispiel verdeutlicht die Problematik: In der Vergangenheit haben Banken ihre Lösungen meist nur mit Innensicht und in dem von ihnen bestimmten Tempo umgesetzt. Zuerst wurde überlegt, ob sich ein neues Produkt für die Bank rentiert. Nur wenn dies mit JA beantwortet werden konnte, wurden Lösungen an die bestehende IT angebunden, in existierende Workflows eingebunden und die Mitarbeiter entsprechend geschult. Die Meinung und Wünsche der Kunden wurden hier meist nicht eingeholt.

Aber genau darum geht es heute: Neue Produkte und Service zu kreieren, um Kunden zu begeistern. Hier haben FinTechs und neue Player die bessere Position. Es handelt sich oft um junge Unternehmen, die von jungen Menschen geführt werden, die mit Smartphone und Tablet aufgewachsen sind und daher Produkte entwickeln, die ihrer und damit der Kundenmentalität entsprechen. Kein Wunder also, dass Unternehmen wie die Online-Bank N26 oder die Investment-Plattform etoro an den traditionellen Banken vorbeiziehen.

Neues Frontend – veraltetes Backend

Bei jeder klassischen Bank existiert ein über Jahrzehnte gewachsenes heterogenes IT-Gerüst, das immer wieder erweitert wurde. Darunter befinden sich neuere Entwicklungen aber auch Mainframes, die man aufgrund gewachsener Kernbanken-Anwendungen nie ablösen konnte.

Das Ganze ist ein sehr effizientes, voll funktionierendes System, das mit vielen Anwendungen, Schnittstellen und Partnern kommuniziert. Neue Lösungen wurden immer behutsam über einen längeren Zeitraum entwickelt, getestet und implementiert. Leider funktioniert das heutzutage nicht mehr, da die Halbwertszeit neuer Technologien immer geringer wird.

So gehört beispielsweise ein neues Smartphone nach sechs bis neun Monaten schon zum alten Eisen und die Betriebssysteme Android und iOS werden im Quartalstakt aktualisiert. Neue Lösungen wie zum Beispiel die Möglichkeit Kredite vom Smartphone aus zu beantragen und sich dabei mit Daten von Facebook oder Gesichtserkennung via Handykamera zu identifizieren unterliegen somit dem Druck möglichst schnell auf den Markt zu kommen, dabei optisch attraktiv und leicht bedienbar zu sein.

Und genau hier liegt für Banken das Problem: Innovationen schnell zu entwickeln und diese in die Kernapplikationen zu implementieren. So lässt sich ein neues Frontend vielleicht noch darstellen, die Lücke zum Backend ist jedoch groß. Komplexe, veraltete und intransparente IT-Architekturen behindern neue mobile Prozesse. Moderne Anwendungen im Frontend bringen die Finanzhäuser auf dem Weg der digitalen Transformation nicht weiter, wenn sie nicht gleichzeitig die Kernapplikationen im Backend modernisieren.

Dabei machen Finanzinstitute jedoch oft den Fehler, dass sie zu Übergangs- und Umgehungslösungen greifen, um so schnell wie möglich immer weitere Funktionalitäten oder Apps im Frontend anzubinden. Die Folge ist ein Flickenteppich im Backend, der stetig größer wird und dazu führt, dass sich das Grundproblem nur immer weiter verschärft.

Jedoch können Banken nicht einfach ihre bestehende IT aufgeben und wie ein Start-Up bei Null anfangen. Durch Kooperationen mit erfolgreichen neuen Playern können sie jedoch sehr schnell neue Lösungen anbieten. Die Anbindung an die bestehende IT muss dann “lediglich” über Schnittstellen mit diesen Playern gemeinsam realisiert werden. Im Vergleich zu den oben beschriebenen kulturellen Herausforderungen ist die technische Lücke zwischen Front- und Backend daher eher ein kleines Problem und leichter zu bewältigen.

Compliance als Chance begreifen

Basel 1-2-3, GDPdU, KYC, WpHg, MaRisk – wenn es eine Branche gibt, die Erfahrung mit rechtlichen Vorgaben hat, dann ist es die Finanzbranche. Niemand bekam in den letzten 20 Jahren mehr neue Regeln auferlegt, meist im Zwei-Jahrestakt. Erst vor Kurzem kam noch die DSGVO hinzu.

Mit den neuen Regeln steigen die Anforderungen an die Verwaltung von Daten und an die Informationssicherheit. Vom Frontend bis zur Kern-IT-Infrastruktur müssen transparente und automatisierte Geschäftsprozesse existieren. Das Schlechte dabei, an der DSGVO kommt niemand vorbei. Das Gute daran, an der DSGVO kommt niemand vorbei.

Natürlich stellt die die EU-Datenschutz-Grundverordnung auch für Banken eine große Herausforderung dar. Aber sie sind es gewohnt, neue Gesetze unter knappen Zeitvorgaben innerhalb einer großen Institution erfolgreich zu implementieren. Hier haben sie ausnahmsweise einen Vorsprung gegenüber ihren neuen Wettbewerbern.

Die DSGVO bietet traditionellen Banken die Chance, veraltete Geschäftsprozesse zu aktualisieren und digitale Transformationsinitiativen zu unterstützen. Die große Manpower in den klassischen Finanzhäusern, die eigenen Legal-Abteilungen, sowie die Erfahrung bei der Umsetzung von Gesetzesvorgaben, unterstützen die Banken bei der Implementierung der neuen Richtlinien. Die DSGVO ist also keineswegs nur eine weitere Compliance-Herausforderung.

Im Gegenteil, sie bietet argumentativen Rückenwind, sich auf die digitale Transformation einzulassen. Dies wird sich auch positiv auf den notwendigen Kulturwandel und die Öffnung hin zu neuen Partner auswirken.

 

Weiterführende Informationen zum Unternehmen:
www.avoka.com

 

 

Unser Autor

*Christian Brüseke verantwortet als General Manager die D-A-CH-Region von Avoka.

 

 

 

 

 

 

 

 

 

Kunde werden einfach gemacht

Auch wer noch nie von „Customer Onboarding” gehört hat, hat bereits praktische Erfahrungen damit gemacht. Dabei geht es darum, wie Unternehmen neue Kunden aufnehmen und in ihre IT-Systeme bringen. Praktisch hat also jeder Kunde in einem Online-Shop, jeder Besitzer einer Kundenkarte oder eines Bankkontos den Onboarding-Prozess bei seinem Anbieter bereits durchlaufen.

Bei Banken geschah dies früher ausschließlich in der Filiale, mit menschlichen Ansprechpartnern und Papierformularen – heute passiert es zum größten Teil komplett digital auf dem PC, Smartphone oder Tablet.

Ob ein potentieller Kunde eine Kontoeröffnung bis zum Ende durchführt oder den Onboarding-Prozess abbricht und zu einer anderen Bank geht, hängt in der digitalen Welt entscheidend von Themen wie der Geschwindigkeit, Benutzerfreundlichkeit oder Verfügbarkeit auf dem Endgerät der Wahl ab. Mehr und mehr setzt sich dabei die Erkenntnis durch: Ohne funktionierendes Onboarding keine neuen Kunden.

Technologie – Herausforderung und Lösung zugleich

Trotz der offensichtlichen Bedeutung des Themas kämpfen Banken auch 2018 noch mit der konkreten Umsetzung, wie der neue Avoka-Report „Digital Sales in Banking” zeigt. Das hat verschiedene Ursachen:

Auf der einen Seite haben die Banken sehr spät und oft auch nur halbherzig mit der Digitalisierung ihrer Services begonnen.

Auf der anderen Seite stehen stetig wachsende Kundenansprüche, neue Regularien aber vor allem sich ständig weiter entwickelnde Technologien, die keinen Stillstand erlauben. Aktuell bieten Künstliche Intelligenz, Machine Learning oder Chatbots interessante Ansatzpunkte, mit denen Finanzinstitute ihre Services verbessern und vor allem das Onboarding optimieren können.

 

 

Insbesondere drei Technologien bieten großes Potential für den Onboarding-Prozess:
Chatbots, Blockchain und API Banking.

 

1. Chatbots
Chatbots sind die „nächste große Sache” im Banking. Eines der größten Probleme beim digitalen Onboarding sind Sackgassen. Immer dann, wenn der potentielle Kunde nicht mehr weiter weiß, besteht die Gefahr, dass er den laufenden Prozess abbricht. Das kann ein Pull-Down-Menü sein, in dem er keine passenden Antwort findet; es kann sich um eine Frage handeln, auf die er keine Antwort weiß oder ein Dokument wird benötigt, dass er nicht zur Hand hat.

Zwar wertet Avoka solche Abbrüche aus und kann Banken zeigen, woran es hapert – aber leider erst im Nachhinein. Gefragt ist daher Live-Support: Freundlich, kompetent und rund um die Uhr verfügbar. Bot-Technologie und Künstliche Intelligenz geben Banken die Werkzeuge an die Hand, die sie benötigen, um Onboarding schneller, günstiger und vor allem für den Kunden angenehmer zu gestalten.

Ein Bot kann zum Beispiel eingreifen, wenn er bemerkt, dass ein Vorgang stockt oder der Kunde vor und zurück geht.
Die Kommunikation mit dem Bot kann dabei per Sprache oder auch per Schrifteingabe erfolgen, wobei Sprache das Tool der Wahl und der Zukunft ist. Man kann prinzipiell den gesamten Onboarding-Vorgang als Interaktion zwischen Kunde und Chatbot realisieren und ihn damit auf wenige Minuten reduzieren.

2. Blockchain
Im Bankenumfeld gibt es gefühlt unendlich viele Compliance-Vorgaben. Unter anderem müssen Banken Geldwäsche verhindern und dazu jeden ihrer Kunden wirklich kennen.
KYC (Know your Customer) nennt sich die von der EU-Anti-Geldwäsche-Richtlinie vorgeschriebene Legitimationsprüfung.Solche Vorschriften sind notwendig und nützlich für die Verhütung und Verfolgung von Verbrechen, sind aber in ihrer Implementierung und Umsetzung kostspielig, zeitaufwändig und vor allem fehleranfällig.Mit Blockchain-Technologie können Banken entlastet, die Einhaltung der Vorschriften gewährleistet und die anfallenden hohen Onboarding Kosten und Risiken minimiert werden. Mit der Technologie, die hinter der Kryptowährung Bitcoin steht, ließe sich für jeden Kunden ein zentraler, bankenübergreifender „Block“ erstellen, in dem alle persönlichen Daten vorliegen. Der Kunde gibt die Daten nur ein einziges Mal ein – entweder in einem Onboarding-Prozess oder bei einer speziellen Anwendung zur Erfassung seiner Daten.Diese Informationen werden dann verschlüsselt in einer Blockchain gespeichert.Der Kunde erhält ein Passwort oder einen privaten Schlüssel, der eingegeben werden muss, um die Informationen zu sehen. Wenn sich nun diese Person bei einer anderen Bank registrieren möchte, muss sie dem Finanzinstitut nur das Passwort für ihre Blockchain-Informationen geben, dann kann diese darauf zugreifen und die Daten automatisch hochladen.Dies würde den Verwaltungsaufwand für die Banken erheblich reduzieren, den Onboarding-Prozess deutlich beschleunigen und die Kosten für KYC-Compliance drastisch senken.
3. API Banking
Der heutige Bankkunde ist anspruchsvoll und will beim Banking genauso bedient werden, wie er es von Amazon & Co. gewöhnt ist. Er will nicht Jahre warten, bis seine Hausbank endlich das anbietet, was andere Branchen oder ausländische Banken bereits anbieten. Oftmals wollen Kunden sogar Bankanwendungen von Drittanbietern oder andere Finanzdienstleistungen nutzen, die nicht von ihrer eigenen Bank angeboten werden. Die Banken selbst sollten ein berechtigtes Interesse daran haben, dass ihre Kunden diese Dienste nutzen können, ohne zu einer anderen Bank zu wechseln.

Die seit Anfang 2018 in Kraft befindliche Zahlungsrichtlinie PSD2 der Europäischen Kommission soll für eine Öffnung des Bankwesens und mehr Wettbewerb sorgen. So sollen Kunden künftig in der Lage sein, zwei Konten bei unterschiedlichen Banken über einen Drittanbieter zusammen zu verwalten. Dafür müssen die notwendigen Daten über APIs abgreifbar sein.

API Banking ermöglicht es Drittanbietern oder anderen Banken, Anwendungen und Services gemeinsam zu entwickeln bzw. zu nutzen. Über offene und standardisierte Schnittstellen lassen sich externe Lösungen wie Chatbots oder die Identifizierung von Ausweisen mittels Smartphone in wenigen Wochen oder gar Tagen einbinden. Auf diese Weise lassen sich moderne Onboarding-Prozesse gemeinsam mit FinTechs, Drittanbietern und externen Entwicklern realisieren.

Licht im Tunnel

Die beschriebenen Technologien sind bei weitem noch nicht das Ende des Möglichen, zeigen aber deutlich, wo die Reise hingehen kann bzw. hingehen muss, wenn man als Bank im Wettbewerb um den Kunden bestehen will. Letztendlich geht es beim gesamten Onboarding-Prozess darum, es dem Kunden – sowohl Neu – als auch Bestandskunde – so bequem wie möglich zu machen. Neueste Technologien unterstützen diesen Prozess und erleichtern sowohl den Finanzinstituten als auch den Kunden den Weg zur erfolgreichen Zusammenarbeit.

 

Weiterführende Informationen zum Unternehmen:
www.avoka.com

 

 

Unser Autor

*Christian Brüseke ist seit Anfang 2017 bei Avoka tätig und verantwortet als General Manager die D-A-CH-Region.

 

 

 

 

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons

Mensch und Roboter – ein Dreamteam!

Die zurzeit in der Gesellschaft grassierenden Diskussionen, Roboter könnten uns in naher Zukunft unsere Jobs wegnehmen, werden durch entsprechendes Filmmaterial aus Hollywood noch untermauert. Visionen einer Gesellschaft, in denen Roboter das Ruder übernommen haben, prägen das Weltbild von Technik-Skeptikern. Aber was ist denn überhaupt dran an diesen vermeintlich düsteren Zukunftsaussichten?

Fest steht: Unsere Welt wird sich durch die zunehmende Automatisierung verändern. Und in diesem Zuge natürlich auch die Arbeitswelt. Bisher entsprechen die medialen Visionen aber nicht der Realität. Zwar übernehmen Roboter schon heute immer mehr Aufgaben: Sie assistieren Technikern, sie servieren Drinks, arbeiten im Warenlager, helfen dem Arzt bei der Operation und begrüßen Gäste in der Hotellobby in nahezu allen Sprachen. Fabrikroboter können in schwierigen Umgebungen tätig werden, benötigen keine Pausen (außer gelegentlicher Wartung), werden nicht krank und haben keinen Urlaubsanspruch.

Das bedeutet jedoch nicht automatisch, dass menschliche Arbeitskräfte in zehn Jahren ein Auslaufmodell sind. Unsere Arbeitsumgebungen werden in zehn Jahren aber anders aussehen – und darauf müssen wir uns einstellen.

Technologie-Einsatz schafft neue Arbeitsplätze

Auf den ersten Blick erscheint es paradox, aber aktuell lässt sich das Gegenteil der befürchteten Entwicklung beobachten: Unternehmen, die bereits damit begonnen haben, Techniken der künstlichen Intelligenz (KI) einzusetzen, verzeichnen höheres Wachstum als ihre Wettbewerber und stellen mehr Spezialisten ein als sie Stellen durch die Automatisierung abbauen.

Viele der durch KI geschaffenen Jobs sind leitende Positionen für hoch qualifizierte Arbeitskräfte. Vor diesem Hintergrund verwundert es nicht, dass die meisten Arbeitgeber der Meinung sind, dass ihr Bestehen am Markt und der wirtschaftliche Wachstum künftig von der Zusammenarbeit zwischen Künstlicher Intelligenz (KI) und Menschen abhängt.

Eine Studie des Beratungsunternehmens Accenture, die anlässlich des Weltwirtschaftsforums in Davos veröffentlicht wurde (Quelle: https://www.accenture.com/US-EN/company-reworking-the-revolution-future-workforce), kommt zu ähnlichen Schlussfolgerungen. Angestellte und Freiberufler sehen demzufolge dem Wandel der Arbeitswelt und dem Einsatz intelligenter Technologien gleichermaßen positiv entgegen.

Mehr als die Hälfte erwarten durch KI positive Auswirkungen auf ihren Arbeitsalltag. Viele erkennen, dass durch den Einsatz von neuen Technologien ihre Arbeit einfacher und vor allem abwechslungsreicher wird und mehr als die Hälfte (55 Prozent) der Befragten erhoffen sich neue Karriereperspektiven. Dabei wird es entscheidend für den wirtschaftlichen Erfolg, Angestellte zu qualifizieren und bisherige Jobprofile an die neuen Gegebenheiten anzupassen.

Viele Unternehmen in Deutschland haben bereits die Aufgabenbereiche und Rollenbeschreibungen von Mitarbeitern neu definiert, um den technologischen Veränderungen im Arbeitsalltag gerecht zu werden. Fast die Hälft der Führungskräfte ist davon überzeugt, dass ihre die Arbeit künftig noch stärker projektbasiert sein wird und dass die Technologien ein ständiges Aneignen neuer Fähigkeiten erfordern werden.

Fest definierte Aufgabenfelder und starre Arbeitsroutinen werden zum Auslaufmodell. Durch die Qualifizierung ihrer Mitarbeiter sichern sich Unternehmen langfristig einen Wettbewerbsvorteil, denn lediglich dort wo Mensch und Maschine kollaborieren, steigt die Produktivität weiter und sichert die wirtschaftlichen Grundlagen auch in der Zukunft.

Erfolgreiche Unternehmen definieren und entwickeln neue Arbeitsbereiche

Autor Shailesh Dixit ist Head of Innovation and IP Wipro Continental Europe.

Die Fertigungsindustrie scheint von der Automatisierung am stärksten betroffen zu sein. Der Einsatz von Robotern ermöglicht es, Deutschland als Produktionsstandort neu zu beleben. Dadurch werden Jobs im eigenen Land geschaffen und gesichert, davon einige mit ganz neuen Anforderungsprofilen. So werden als direkte Folge dieser Veränderungen zunehmend Mitarbeiter mit technischen Fachkenntnissen nachgefragt, um die eingesetzten KI-Systeme und -Modelle zu trainieren. Diese „KI-Trainer“ sollen sicherstellen, dass KI-Systeme die erwartete Funktionalität mitbringen. Sie müssen den Systemen beispielsweise „beibringen“, wie sie Fehler korrigieren oder menschliches Verhalten nachahmen.

Auch KI-Analysten werden zukünftig begehrte Experten sein. KI-Systeme können relevante Entscheidungen nicht alleine treffen. Sie benötigen eine Schnittstelle, die ihre Informationen analysiert, Empfehlungen aussprechen, an die entsprechenden Mitarbeiter weiterleiten und verständlich machen kann. Fachkräfte mit umfassenden Kenntnissen zu hochgradig technisierten Systemen sind hier unersetzlich. Und das sind nur zwei Beispiele für mögliche neue Arbeitsfelder.

Der verstärkte Einsatz von Robotern sollte somit nicht einseitig als Bedrohung betrachtet werden. Vielmehr bieten die neuen Technologien eine Vielzahl von Vorteilen, die sich Unternehmer, Manager und Mitarbeiter gleichermaßen zunutze machen können. Menschliche Arbeitskräfte haben also nicht nur gute Chancen, ihre Arbeit zu behalten, sondern profitieren zudem von der Möglichkeit, ihre Produktivität mithilfe der Automatisierung zu steigern.

Empathie ist nicht trainierbar

Die Angst, Roboter könnten uns künftig unsere Jobs wegnehmen ist also nicht wirklich begründet. Der Mensch muss sich wieder auf seine einzigartigen Fähigkeiten besinnen, die künstliche Intelligenzen in absehbarer Zeit nicht werden ersetzen können, etwa Empathie oder Kreativität. Künstliche Intelligenzen, Computer und Roboter können auf vorhandenen Ideen aufbauen, jedoch keine eigenen Ideen entwickeln. Kreatives Denken und auf langjährigen Erfahrungen aufgebautes Handeln obliegt weiterhin den Menschen und wird in der Arbeitswelt auch in Zukunft unabdingbar sein.

Künstliche Intelligenzen sind somit keine Konkurrenz oder gar ein Ersatz zu menschlichen Arbeitskräften, viel mehr sind sie eine nützliche Ergänzungen und Unterstützung, um Mitarbeiter zu entlasten, körperlich schwierige Arbeiten zu übernehmen und Kosten zu sparen.

Die Zusammenarbeit von Künstlichen Intelligenzen und menschlichen Fachkräften ist eine zukunftsorientierte Maßnahme, die nicht nur den Unternehmen, sondern auch den Mitarbeitern eine effektive Möglichkeit bietet, neue Kompetenzen zu erwerben, vorhandene auszubauen und diese dann zukunftsorientiert branchenübergreifend einzusetzen. Unternehmen profitieren von dem Einsatz von KI, wenn sie die Technologie so einsetzen, dass ihre Mitarbeiter neue Aufgaben übernehmen können. Nimmt man die jeweiligen Stärken zusammen, bilden Mensch und Roboter ein Dreamteam.

Weiterführende Informationen unter:
https://www.wipro.com/

 

Mit Big Data sicher im Finanzumfeld

 

Wie ist die Bonität des Kunden? Wie sicher zahlt er seine Kredite zurück? Wie hoch ist das Risiko, ihn zu versichern und wenn, zu welchem Preis? Die Auswertung von Daten ist für Banken und Versicherungen seit je her ein wichtiger Punkt in ihrer Geschäftstätigkeit.

Seine Kunden und seinen Markt zu kennen und dabei Schlüsse auf zukünftige Entwicklung ziehen zu können, gehört schon immer zum Handwerk im Finanzsektor. Neu ist nun, dass die Daten, die bislang zur Verfügung stehen, effizienter genutzt werden können. Das hat für einige Bereiche entscheidende Vorteile.

 

Datenverarbeitung früher – kein Vergleich

Früher wurden Daten in einheitlich konzipierte Datenbanken geschrieben, die stets dasselbe Format hatten und in ihrer Menge für die weitere Verarbeitung überschaubar blieben. So handelte es sich im Kundenverkehr meist um Stammdaten wie etwa Anschrift oder Historie (wie viele Kredite, Einlagen beziehungsweise Schadensfällen bei Versicherungen). Heute jedoch stehen viel mehr – auch unterschiedlichste – Datenarten zur Verfügung: Big Data.

Um diese zu nutzen kommen viele Analysen in Frage. So können Banken beispielsweise durch die Auswertung von Handelsdaten etwa Geldwäscherei schneller erkennen und entsprechend gegensteuern. Bislang konnten historische Daten nur archiviert vorgehalten werden – ein Nachteil für eine zeitnahe Betrachtung, denn Trading-Daten eines bestimmten Tages waren nur nach Geschäftsschluss verfügbar. Zwischen diesem Zeitpunkt und dem vorher erfolgten Trade war nun Betrug Tür und Tor geöffnet.

Mit dem Einsatz von Big Data können diese Daten sofort bearbeitet werden. Zudem ist die Betrachtung auch sehr historischer Daten möglich und notwendig, um ein zutreffendes Gesamtbild darzustellen. In einem gemeinsamen Datenpool können mehrere Geschäftszweige einen Einblick in alle Trading-Aktivitäten erhalten. In ihm findet beispielsweise das Trading-Risk-Team seine Positions-, Ausführungs- und Bilanzdaten.

 

Sicherheit für Banken

Auch das Ausfallrisiko bei Kontoanträgen können Banken mit Big Data reduzieren. Dazu wenden sich Banken bei einer Neuerstellung eines Giro- oder Sparkontos an ein externes Scoring-Unternehmen. Dieses wiederum prüft den Kontoinhaber in spe auf sein bisheriges Banking-Verhalten: Hier fließen nicht nur Selbst- und Schufa-Auskunft ein, auch Informationen aus sozialen Medien wie etwa das soziale Umfeld können Messgrößen darstellen.

Ob der Antragsteller teure Konsumgüter bevorzugt, auf Xing oder LinkedIn den eigenen aktuellen Arbeitgeber angibt – all dies sind Informationen, die eine Kontoeröffnung beziehungsweise Kreditvergabe günstig beeinflussen können. Dies geschieht natürlich nur auf freiwilliger Basis.

 

Besserer Service

Nicht zuletzt kann eine Bank durch die Analyse des Verhaltens ihrer Geschäftspartner wertvolle Einsichten für ihre Kundenbindungsprogramme erhalten. Falls diese plötzlich ihre Daueraufträge löschen, Kartenumsätze sinken oder weniger Einnahmen zu verzeichnen sind, kann dies ein Indikator für einen bevorstehenden Wechsel zu einer anderen Bank sein.

Doch auch wenn es um den Ausbau bestehender Kundenbeziehungen geht, kann Big Data einen großen Teil beitragen. So kennt eine Bank natürlich die Kontenbewegungen seiner Kunden. Bei Zahlungen an Stromanbieter kann eine Bank – selbstverständlich anonymisiert – die günstigsten Anbieter identifizieren und ihren Kunden im Rahmen einer Konsumentenberatung oder eines Newsletters entsprechende Hinweise bieten.
Auch könnte ein Geldinstitut bei Ratenzahlungen für ein Kraftfahrzeug entsprechende Versicherungsleistungen anbieten.

 

Big Data – auch für Versicherungen wichtig

Bei Versicherungen kann Big Data dazu führen, dass den Versicherten ein wirklich maßgeschneidertes Produkt angeboten werden kann. Durch die Analyse von unstrukturierten Massendaten kann ein Versicherer das Risiko einer Klasse von Versicherten genauer einschätzen und Policen günstiger anbieten und sich so vom Wettbewerb abheben.

Krankenversicherungen können vorbeugende gesundheitserhaltende Maßnahmen anbieten, die aufgrund des Verhaltens der Versicherten optimiert werden. Da diese Daten zeitnah vorliegen, ist eine Anpassung dieser Angebote auch kurzfristig möglich – früher konnten Versicherer nur in einem langen Zeitrahmen reagieren.

 

Straffung interner Prozesse

Sowohl für Banken als auch für Versicherer bietet Big Data aber mehr als das. Alleine die Straffung interner Prozesse kann die Marktposition des einen oder anderen Instituts entscheidend verbessern. So sind Informationen über Kunden, Finanzprodukte oder Versicherungen schneller verfügbar.

Mittels künstlicher Intelligenz kann die IT auch automatisch das richtige Finanz- oder Versicherungsprodukt vorschlagen. Dies geschieht sowohl aufgrund der individuellen Situation des Kunden als auch aufgrund dessen, welches Produkt für eine vergleichbare Gruppe an Kunden bereits in Frage gekommen ist und sich derer Zustimmung erfreut.

Nicht zuletzt sorgt Big Data auch für Transparenz beim Kunden. Er kann komplexe Informationen bequem von einem mobilen Endgerät aus einsehen.

Zwar befindet sich die Nutzung von Big Data bei Banken und Versicherungen überwiegend am Anfang – aber bereits in einigen Jahren wird sich kaum noch jemand Institute ohne diese Technologie vorstellen können. Denn der wahre Schatz der Finanzinstitute liegt nicht –  wie man vielleicht glauben mag, in Geld, Gold und Geschmeide –  sondern das „Edelmetall“ des jetzigen Jahrhunderts sind die Daten.

 

Weiterführende Informationen zum Unternehmen finden Sie unter:
https://de.hortonworks.com/

 

Über den Autor

Als Regional Vice President for Central, Eastern & Southern Europe ist Daniel Metzger bei Hortonworks für die Vertriebsteams, Partner und Kundenbeziehungen in der Region verantwortlich. Daniel Metzger ist ein erfahrener Vertriebsleiter, der in den letzten 20 Jahren in vielen strategischen nationalen und internationalen Projekten mitwirkte, u.a. in vorherigen Stationen bei BMC und MRO.

 

 

 

 

 

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons

 

Braucht Deutschlands Automobilbranche neue Berater?

Ein Gastbeitrag von Dr. Stephan Melzer und Prof. Dr. Martin Przewloka, minnosphere GmbH

Fast eine Million Beschäftigte, mehr als 400 Milliarden Euro Umsatz im Jahr – die Automobilindustrie ist ohne Frage eine der Schlüsselbranchen unseres Landes. Deutsche Automobile sind der Inbegriff von Ingenieurskunst, Qualität und Innovation. Oder aus heutiger Sicht: waren es, denn die Branche hat ein Imageproblem. Mit ihrem beharrlichen Festhalten am Verbrennungsmotor im Allgemeinen und der Dieseltechnologie im Speziellen gilt sie vielen als Bremser einer nachhaltigen Entwicklung. Versuche, auf politischer Ebene den gesellschaftlichen Wandel hin zur Elektromobilität zu verzögern, tun ihr Übriges.

Prof. Dr. Martin Przewloka, Chief Digital Officer bei minnosphere, ein Start-up der msg-Gruppe

Prof. Dr. Martin Przewloka, Chief Digital Officer bei minnosphere, ein Start-up der msg-Gruppe

Dieses Bild ist jedoch nur die halbe Wahrheit, denn in vielen innovativen Bereichen wie der Robotik oder dem autonomen Fahren stehen deutsche Autobauer nach wie vor ganz vorne an der Spitze des Fortschritts. Forschung und Entwicklung finden jedoch noch viel zu oft im Stillen und unter rigorosem Ausschluss von Öffentlichkeit und Konkurrenz statt. Innovation lebt jedoch von Offenheit, das zeigen die Erfolge im Silicon Valley und anderen amerikanischen Zentren des Fortschritts ganz deutlich, in denen Unternehmen und Universitäten Ideen und Informationen weit freier austauschen als dies bei uns üblich ist. Wir brauchen zudem offene Schnittstellen, um gemeinsam modul- und unternehmensübergreifend die Dinge voranbringen zu können. Um über die bereits erwähnten offenen Schnittstellen Informationen austauschen zu können, müssen wir zukünftig mehr in Komponenten und Baugruppen denken. Eine nach diesen Regeln agierende „Open Innovation“-Bewegung könnte genauso erfolgreich sein wie der Open-Source-Ansatz in der Software-Entwicklung.

Offenheit, Agilität und Innovationsfreude können aber nur gedeihen, wenn sich die Kultur in den Unternehmen verändert. Hierarchien müssen abgebaut, die Verantwortungen in die Teams übertragen werden. Auch der Umgang mit Fehlern ist zu überdenken. Um aus ihnen wirklich lernen zu können, darf man sie nicht verschweigen und unter den Teppich kehren, sondern muss sie benennen, ja geradezu als wichtige Informationsquelle erkennen.

Unternehmensberatung der Zukunft

Diese Transformation wird sich in den Anforderungen an die zukünftigen Unternehmensberater in der Automobilindustrie widerspiegeln. Wir brauchen auch in der Beratung einen offenen Austausch von Wissen und Erfahrungen mit dem Ziel der Steigerung der Innovationsfähigkeit, statt sich einseitig und ausschließlich auf Effizienzsteigerung zu konzentrieren.

Dr. Stephan Melzer, Geschäftsbereichsleiter Automotive in der msg-Gruppe und Geschäftsführer des msg-Innovation-Labs minnosphere GmbH

Dr. Stephan Melzer, Geschäftsbereichsleiter Automotive in der msg-Gruppe und Geschäftsführer des msg-Innovation-Labs minnosphere GmbH

Heute sind Unternehmensberater darauf spezialisiert, Einsparpotenziale sowie Möglichkeiten zur Prozessoptimierung zu identifizieren. Sie konzentrieren sich daher gerne auf Kennzahlen, mit denen sich die Leistung eines Unternehmens und deren Steigerung scheinbar objektiv messen lassen. Dabei ist es keine Frage, dass Kennzahlen zur Steuerung eines Unternehmens eine wichtige Rolle spielen. Wer den Erfolg seiner Entscheidungen und des Handelns nicht misst, arbeitet quasi im Blindflug. Die Konzentration auf Kennzahlen und deren Messung hat jedoch auch einen gravierenden Nachteil: Der Fokus liegt zu stark auf der Erzielung kurzfristiger Erfolge. Langfristige Investitionen und das Eingehen sinnvoller Risiken geraten aus dem Blick, was sich wiederum negativ auf die Innovationsfreude und -fähigkeit eines Unternehmens auswirken kann. Es liegt in der Natur der Sache, dass neue Dinge zunächst einmal unreif, ineffizient und fehlerhaft sind – das gilt für neue Produkte ebenso wie für neue Geschäftsmodelle. Sie verschlechtern daher zwangsläufig zunächst einmal die Bilanz. Auch lassen sich in neuen Geschäftsfeldern Risiken und Rückschläge nicht vermeiden. Wirklich Neues wird daher durch zu enge Budgetvorgaben und starre Fünfjahrespläne verhindert oder erschwert.

Wir brauchen deshalb in der Beratung einen neuen Ansatz, der neben den Kennzahlen auch die Zukunftsfähigkeit eines Unternehmens bewertet. Strömungen wie Design Thinking und agile Entwicklung sind keine Allheilmittel, sie sind aber wichtige Bausteine, die zukünftig von Beratern beherrscht und eingesetzt werden müssen, um eine neue Innovationskultur zu fördern. Nicht eine 30-jährige Erfahrung in der Automobilbranche, nicht Spezialistentum und Expertenwissen dürfen im Vordergrund stehen, sondern die Bereitschaft zu vernetztem Denken und bereichsübergreifendem Handeln. Die dafür notwendigen Fähigkeiten kann man heute leider nur an sehr wenigen Bildungsstätten lernen, denn deutsche Ausbildungs- und Studiengänge fördern den hochgradig spezialisierten Experten, der von sehr wenig sehr viel weiß. Wir brauchen wieder vermehrt ein Studium Generale, das die Perspektive weitet und den Blick über den Tellerrand des eigenen Spezialgebiets hinaus ermöglicht, auch und gerade für die Studierenden, die eine Laufbahn in der Unternehmensberatung anstreben.

Fazit

Nur wenn es der deutschen Automobilindustrie und den dort wirkenden Beratern gelingt, diese Transformation zu leisten, wird sie auch im Zeitalter der Elektromobilität noch die Vorreiterrolle spielen können, die sie in den vergangenen 50 Jahren innehatte. Berater, die diesen Prozess begleiten und vorantreiben, benötigen einen weiten Blick, eine multidisziplinäre Ausbildung, ausgesprochen hohe Kommunikationsfähigkeiten und vor allem den Willen, mehr als nur Kennzahlen zum Ziel ihres Handelns zu machen und neue Wege zu gehen. Vieljährige, hochspezialisierte Branchenerfahrung wird dabei in den kommenden Jahren immer weniger die entscheidende Rolle spielen.

Über die Autoren

Dr. Stephan Melzer ist Geschäftsbereichsleiter Automotive in der msg-Gruppe und Geschäftsführer des msg-Innovation-Labs minnosphere GmbH; Prof. Dr. Martin Przewloka, Chief Digital Officer bei minnosphere, ein Start-up der msg-Gruppe.

Mobiles Bezahlen für Milliarden von IoT-Geräten

NXP, Mastercard und Visa reformieren das mobile Bezahlen für Milliarden von IoT-Geräten

Montblanc’s TWIN-Smart-Armband basiert auf der neuen NXP mWallet 2GO Plattform

MÜNCHEN/AMSTERDAM – 7. Juni 2018 –

NXP Semiconductors N.V., Mastercard und Visa stellen mWallet 2GO, einen White-Label-Wallet-Service, vor, der auf Basis der NXP Secure Service 2GO Plattform entwickelt wurde. Mit dem neuen Service ist NXP der erste Anbieter in der Branche, der das gesamte Entwicklungsspektrum für mobile Wallets in einer einzigen Lösung anbietet.

mWallet 2GO

Die Zahlungslösung umfasst nicht nur die gesamte Hardwaretechnologie, sondern auch die Software und die Systemintegration. Sie wurde konzipiert, um die Entwicklungsprozesse zu vereinfachen, die Kosten zu senken und die Time-to-Market für OEMs zu verkürzen. mWallet 2GO lässt sich flexibel einsetzen und stellt mobile Zahlungsmöglichkeiten für jedes tragbare, mobile oder IoT-Gerät bereit.

Das deutsche Unternehmen Montblanc, ein führender Hersteller von hochwertigen Schreibgeräten, Armbanduhren, Schmuck und Lederwaren, bringt als erster Anbieter eine eigene mobile Wallet-Lösung auf Basis von mWallet 2GO für sein neues TWIN-Smart-Armband auf den Markt.

Erster Anbieter: Montblanc

„Montblanc steht für Raffinesse und Handwerkskunst, und dieses Erbe setzen wir mit der Einführung des TWIN-Smart-Armbands fort“, sagt Dr. Felix Obschonka, Direktor für Neue Technologien bei Montblanc. „In diesem neuen eleganten, intelligenten Armband haben wir High-End-Materialien mit den fortschrittlichsten Technologien auf dem Markt kombiniert. So können wir unseren Kunden eine einfache und sichere Zahlungsoption gemeinsam mit ihrer geliebten Uhr bieten – damit sie Design und Komfort genießen können, ohne auf neueste digitale Technologien verzichten zu müssen.“

„mWallet 2GO erweitert unsere marktführende Chiplösung zu einer echten Full-Service- und Systemlösung für mobiles Bezahlen. Nach der Ankündigung von MIFARE 2GO beweist das einmal mehr, dass NXP an der Spitze der Transformation ganzer Ökosysteme steht“, sagt Rafael Sotomayor, Senior Vicepresident Secure Transactions and Identification Solutions bei NXP. „Der Erfolg des Unternehmens bei der Implementierung mobiler Bezahlsysteme bestätigt, dass NXP weltweit den Weg für neue, aufregende und sichere Zahlungslösungen ebnet.“

NXP an der Spitze der Transformation ganzer Ökosysteme

Von der Zusammenarbeit von NXP, Mastercard und Visa profitieren sowohl Verbraucher als auch Banken. Die Verbraucher haben mehr Möglichkeiten, Zahlungen mobil, schnell, sicher und bequem abzuwickeln, die Banken wiederum können ihr Produktangebot modernisieren und erweitern.

Als erste echte End-to-End-Lösung integriert mWallet 2GO die fortschrittlichsten Technologien von NXP, um OEMs eine vorzertifizierte und validierte Komplettlösung anzubieten. Dazu zählen:

· Near Field Communications (NFC)

· Secure Element (SE)

· NFC Middleware

· SE JavaCard Betriebssystem

· SE Applets

· SEMS (Secure Element Management Service)

· Wallet Application and Software Developer Kit (SDK)

· Wallet Serve

· MDES (Mastercard Digital Enablement Service)

· VTS (Visa Token Service) Tokenization Plattformen

 

Secure Service 2GO Plattform

Die Secure Service 2GO Plattform von NXP ist die Basis für verschiedene Sicherheitslösungen. MIFARE 2GO wurde im Februar 2018 eingeführt und verwaltet digitalisierte MIFARE-basierte Zugangsdaten für IoT-Geräte. Der Service wird beispielsweise für Pendelfahrten mit der Las Vegas Monorail angeboten und ist vollständig in Google Pay integriert. Damit ist er für mehr als zwei Milliarden aktive Android-Nutzer verfügbar.

mWallet 2GO und MIFARE 2GO zeigen, dass NXP über Halbleiterlösungen hinausdenkt und auf voll integrierte Services und Plattformen als Geschäftsmodell setzt. Die End-to-End-Lösungen verbinden Service-Provider mit IoT-OEMs und ermöglichen es ihnen, schnell innovative Produkte zu entwickeln, die höchste Cloud-to-Node-Sicherheit und Skalierbarkeit bieten.

 

About NXP Semiconductors
NXP Semiconductors NV (NASDAQ: NXPI) ermöglicht sichere Verbindungen und Infrastrukturen für eine intelligentere Welt und bietet Lösungen, die das Leben einfacher, besser und sicherer machen. Als weltweit führender Anbieter von sicheren Konnektivitätslösungen für Embedded-Anwendungen treibt NXP Innovationen in den Märkten für sicher vernetzte Fahrzeuge, End-to-End-Lösungen für Sicherheit und Datenschutz sowie für intelligente vernetzte Lösungen voran. Das Unternehmen verfügt über mehr als 60 Jahre Erfahrung und Expertise und beschäftigt 30.000 Mitarbeiter in mehr als 30 Ländern. Im Jahr 2017 erzielte das Unternehmen einen Umsatz von 9,26 Milliarden US-Dollar.
Mehr Informationen unter www.nxp.com.

 

Für weitere Informationen nehmen Sie bitte Kontakt auf mit:

NXP

Martijn van der Linden

Tel: +31 6 10914896

E-Mail: martijn.van.der.linden@nxp.com

 

 

NXP and the NXP logo are trademarks of NXP B.V. All other product or service names are the property of their respective owners. All rights reserved. © 2018 NXP B.V.

Freie Fahrt für alle?

Autofahren wird sich ändern. Bei dem zunehmenden Verkehr haben Städte und Gemeinden auch keine andere Wahl. Straßen und Autobahnen sind zunehmend verstopft. Wenn man sich die morgentliche Situation in einer Stadt wie München ansieht, kommt man zu dem Schluss, dass das Maximum bereits erreicht ist. Jedoch demonstrieren Kommunen wie London, Paris oder Moskau, dass es noch schlimmer kommen kann. Wo liegt dann die Lösung?

Wer sich mit seinem Fahrzeug in die Stadt bewegt, hat meist innerstädtische Ziele. Typischerweise kommt zum reinen Weg auch noch einige Zeit hinzu, die der Fahrer für die Parkplatzsuche aufwenden muss. So fällt weitaus mehr Kohlenmonoxyd- und Kohlendioxyd-Ausstoß an, als eigentlich notwendig wäre. Das führt dazu, dass beispielsweise in Stuttgart mit seiner Kessellage Abgase sich in oftmals kritischer Konzentration finden lassen.

Öko-Antriebe erster Schritt

Viele sehen im Antrieb einen Lösungsweg – ob nun wasserstoffgetriebene Brennstoffzelle oder Elektroantrieb. Zwar wird die Luft in der Stadt durch die Verwendung sauberer Energie tatsächlich sauber, einen Ausweg für den wachsenden Verkehr bietet die alleinige Konzentration auf fortschrittliche Antriebskonzepte aber nicht.

Um sowohl etwa Elektromobilität und die bessere Auslastung der Verkehrswege gleichermaßen zu gestalten, setzen einige Kommunen und Automobilhersteller auf intelligente Mobilität. Hier bietet sich die Aufrüstung der Fahrzeuge mit Informationstechnologie an. Das Konzept des Smart Cars bietet dabei einige Entlastungen für Fahrer aber auch für Kommunen.

Vernetzung verbessert Situation

Zunächst können die Verkehrsströme mithilfe miteinander vernetzten Fahrzeugen effizienter gestaltet werden. Automatisch fahrende Fahrzeuge können den Verkehr flüssiger gestalten, denn Situationen, in denen menschliche Fahrer entweder zeitverzögert – etwa im Stau – oder gefühlsgesteuert agieren – etwa bei Konfliktsituationen, die sich aus dem laufenden Verkehr ergeben – fallen weg. Zudem können Städte, ähnlich den in den USA üblichen Fahrspuren für Wagen, die mit mehr als zwei Personen belegt sind, Smart Cars eigene priorisierte Fahrbahnen zuweisen. Auf diesen Fahrbahnen können automatische Fahrzeuge dichter fahren. Der Sicherheitsabstand kann geringer ausfallen, da die berühmte Schrecksekunde ausfällt. Bremst das erste Fahrzeug einer Kolonne, bremsen die nachfolgenden sofort automatisch mit.

Parkplatzsuche? Von gestern!

Doch nicht nur während der Fahrt hilft die Informationstechnologie beim Individualverkehr. Auch bei der Parkplatzsuche sind intelligente Systeme von Vorteil. Viel innerstädtischer Verkehr fällt mit der Parkplatzsuche an. Tonnen von CO2 sind alleine überflüssigen Fahrbewegungen zu verdanken. Ein intelligentes Konzept kann im Zusammenspiel mit einer Smart City das Auto direkt zu einem freien Parkplatz lotsen. Bei gebührenpflichtigen Stellplätzen kann auch das anfallende Parkentgelt automatisch vom Konto des Fahrzeughalters eingezogen werden. Die Situation auf den Straßen entspannt sich so. Außerdem können Smart Cars in die Mobilitätsplanung einbezogen werden. Strecken, die mit verschiedenen Verkehrsmitteln zurückgelegt werden, können so besser geplant werden.

Fahrzeuge beratschlagen sich

Weitere Vorteile, die Smart Cars mit sich bringen, sind etwa die bessere Vernetzung der Fahrzeuge. Künftig können Verkehrsmittel innerhalb eines bestimmten Radius ihre Fahrweise aufeinander abstimmen und sich gegenseitig vor etwaigen Verkehrshindernissen beziehungsweise schwierigen Straßenverhältnissen wie etwa Glatteis oder Nebel warnen.

Nur eine Frage des „wann“

Es ist nicht die Frage, ob Smart Cars kommen, sondern wann. Diese Entwicklung ist bereits anhand der intelligenten Fahrassistenzsysteme absehbar. Nahezu jedes Oberklassemodell ist bereits mit ihnen ausgestattet. Jedoch müssen die öffentlichen IT-Systeme bis zum flächendeckenden Erscheinen von Smart Cars ausreichend gerüstet sein, denn autonomes Fahren führt automatisch zu einem vermehrten Datenaufkommen. Die Technik, um dies zu bewerkstelligen, existiert bereits heute. Kommunale Verkehrsleitsysteme nutzen bereits heute – ohne Vernetzung mit dem einzelnen Fahrzeug – entsprechende Rechenzentren. Jeder, der einen Kartendienst wie Google Maps nutzt, profitiert bereits vom vernetzten Ansatz. Nur sind es heute nicht die Fahrzeuge, die mit der Stadt, den Straßen oder anderen Fahrzeugen interagieren, sondern Smartphones. Derzeit wertet der Kartendienst die Positionsdateien der Nutzer aus und errechnet die Verkehrsbelastung. Deswegen können Routen ständig und zeitnah an die aktuelle Situation angepasst werden. In Zukunft werden Smart Cars diese Entwicklung noch verstärkt antreiben. Neben den reinen Positionsdaten fließen andere Informationen in die Lenkung des eigenen Fahrzeugs mit ein.

Big Data ist Voraussetzung

Möglich wird dies durch bereits erhältliche Module. Mittels des Internets der Dinge (Internet of Things, IoT) können Sensoren an das weltweite Datennetzwerk angeschlossen werden. Individualverkehr und Verkehrsleitung verschmelzen zu einer einzigen Entität. Es entstehen gigantische Datenmengen – heutzutage in vielen Fällen noch in Datensilos, da Parkhausbetreiber, Kommunen, Polizei, Rettungskräfte sowie Smart Cars ihre Daten eigenständig und nicht miteinander verknüpft ablegen. Doch genau diese Verknüpfung und Auswertung der Verkehrsströme, -störungen, der freien und besetzten Parkplätze oder Baustellen bringt den Menschen in den Städten und Kommunen Entlastung. Doch dafür müssen alle Beteiligten, vom Autohersteller über Rettungsdienste und Polizei bis hin zu den kommunalen Betreibern auf eine leistungsfähige Management-Plattform setzen, die eine große Anzahl anfallender Daten effizient miteinander verknüpfen und verarbeiten kann. Ohne Big Data, der Auswertung unterschiedlich beschaffener Massendaten ist ein solches System nur schwer vorstellbar. Doch auch hier gibt es bereits erste Schritte in die richtige Richtung – vollkommen bereichsübergreifend.

Zum Schluss profitieren sowohl Kommunen als auch alle Verkehrsteilnehmer. Zwar ist die Nutzung von Big Data und autonomen Fahren auch eine Frage, die noch den Gesetzgeber beschäftigt – so ist beispielsweise noch nicht endgültig entschieden, ob bei einem Unfall im vollautonomen Modus der Fahrer oder der Hersteller des Fahrzeugs haftet. Auch der Datenschutz bei Speicherung der individuellen und fahrzeugbezogenen Informationen etwa in kommunalen Verkehrsleitsystemen bedarf einer endgültigen Klärung. Dennoch, technisch ist der Weg bereits geebnet. Wutausbrüche am Steuer, Kollisionen bei Spurwechsel, eine unterbliebene Rettungsgasse oder stundenlange Parkplatzsuche gehören somit der Vergangenheit an.

Über den Autor

Als Regional Vice President for Central, Eastern & Southern Europe ist Daniel Metzger bei Hortonworks für die Vertriebsteams, Partner und Kundenbeziehungen in der Region verantwortlich. Daniel Metzger ist ein erfahrener Vertriebsleiter, der in den letzten 20 Jahren in vielen strategischen nationalen und internationalen Projekten mitwirkte, u.a. in vorherigen Stationen bei BMC und MRO.

Die Revolution des Kaufens

Die zunehmende Vernetzung und der Vormarsch internetfähiger Geräte verändert nicht nur die technische Ausstattung des täglichen Lebens. Mit dem Komfort, der sich durch vernetzte Geräte etabliert hat, ist auch eine neue Mentalität bei Verbrauchern entstanden, die ihre Erwartungshaltung an Services und Produkte verändert hat. Für Unternehmen kristallisiert sich daher seit einiger Zeit ein neues Geschäftsmodell heraus – die Subscription Economy. Frank Unger, VP Sales DACH von Zuora erklärt den Wandel.

Im Jahr 2000 erhielt der Videoverleih-Gigant Blockbuster Video das Angebot, den damaligen Online-DVD-Verleiher Netflix für 50 Millionen Dollar zu kaufen. CEO John Antioco schlug das Angebot aus, da es sich nur um einen „Nischenmarkt“ handelte. Der weitere Verlauf ist bekannt: Während Blockbuster nach und nach sämtliche Filialen schließen musste, entwickelte sich Netflix zum Video-On-Demand-Vorreiter.

Da Netflix damals noch durchgehend Verluste machte, war die damalige Entscheidung vom wirtschaftlichen Standpunkt aus sinnvoll. Allerdings ist es eines der markantesten Beispiele, was Unternehmen blüht, die die Zeichen der Zeit nicht erkennen und durch ein Festhalten an veralteten Geschäftsmodellen zugrunde gehen. Ähnlich erfolgreich gestaltet der Sport-Streaming-Dienst DAZN sein Geschäft. Sie profitieren davon, keine Produkte mehr anzubieten, sondern diese als Service zur Verfügung zu stellen und machen sich die datengetriebenen Einblicke zunutze, die während der Nutzung kreiert werden.

Das neue Konsumverhalten

Mit der fortschreitenden Vernetzung hat sich auch ein Wandel im Konsumverhalten eingesetzt. Nutzer kaufen keine Filme mehr, sondern streamen. Statt sich Autos zu kaufen, buchen Sie per App einen Uber-Fahrer oder nutzen eines der zahlreichen Car-Sharing-Angebote. Andere lassen sich regelmäßig Öko-Kisten nach Hause liefern, um selbst weniger einkaufen zu müssen. Der Grund liegt auf der Hand: Es ist schlicht und einfach angenehmer. Es ist längst kein Geheimnis mehr, dass die „Customer Experience“ darüber entscheidet, welche Angebote sich bei Verbrauchern durchsetzen. Wo eine App reicht, um zum Ziel zu kommen, sparen sie sich gerne den Weg zu einem Händler, um etwas zu kaufen.
Für Unternehmen bedeutet das, ihre Kunden stärker binden und besser verstehen zu müssen, um ihnen die bestmöglichen Services anbieten zu können. Im Zuge dessen verändert sich auch das Geschäftsmodell. Der rein produktzentrierte Ansatz aus der Industrialisierung sieht vor, ein Produkt zu entwickeln und so viele identische Einheiten wie möglich davon zu verkaufen. Informationen zum Nutzungsverhalten oder zur Kundenzufriedenheit erhält man nur anhand der Verkaufszahlen. Die heutigen technischen Möglichkeiten machen es jedoch möglich, anhand der unzähligen Nutzungsdaten, ein detailliertes Bild davon zu erhalten, was den Nutzern gefällt und ihr Angebot dementsprechend auszurichten. Daher muss der Fokus darauf liegen, Kunden langfristig zu binden. So können Anbieter deren Präferenzen lernen und basierend auf dem Nutzerverhalten ihr Angebot und dadurch die Nutzererfahrung laufend verbessern.

Abonnement statt Besitz

Eine Abkehr vom traditionellen Kaufmodell hin zu einem Abonnement-Modell zur Stärkung der Kundenbindung bedeutet, seine Produkte nicht mehr zu verkaufen, sondern vielmehr als Service bereitzustellen. Indem Unternehmen Produkte nicht aus der Hand geben, sind sie in der Lage, deren Nutzungsdaten auszuwerten, um diese für sich zu nutzen und näher am Kunden zu operieren.

Wo bisher die physischen Objekte im Zentrum der Aufmerksamkeit standen, sind Anbieter nun in der Lage, den Kunden in den Mittelpunkt zu rücken. Indem sie ihre Produkte in Services verwandeln, die sich an das Nutzerverhalten anpassen und dadurch lernen, sind sie erst in der Lage, wirklich personalisierte Angebote bereitzustellen.

In den USA ist die Subscription Economy bereits als fester Bestandteil der Wirtschaft etabliert. Allein im E-Commerce wuchsen Subscription-Modelle in den letzten fünf Jahren jedes Jahr um 100 Prozent und steigerten den Umsatz seit 2011 von 57 Millionen auf 2,6 Milliarden im Jahr 2016.

Hierzulande nimmt dieses Geschäftsmodell gerade erst Fahrt auf. Der Versandhändler Otto bietet beispielsweise mit Otto Now ein Mietmodell an und Volvo hat mit Care by Volvo ein Abonnement-Modell im Angebot, das Autofahrer durch ein All-inclusive-Paket mit monatlicher Rate überzeugen will. Der schwedische Hersteller geht sogar davon aus, dass dieses Angebot bald sogar ein Fünftel des Gesamtumsatzes ausmachen wird. Auch andere Automobilhersteller testen bereits Mobility-as-a-Service (MaaS)-Angebote unterschiedlicher Art: Ford beispielsweise hat mit seinem Chariot-Angebot einen Shuttle-Service gestartet, der nach monatlicher Gebühr oder „pay-as-you-go“-Prinzip abrechnet. Auf diese Weise kommt der Nutzer regelmäßig von A nach B, ohne sich ein Auto kaufen zu müssen. Gleichzeitig bleibt er der Marke langfristig erhalten. Zudem fällt der Transport wesentlich komfortabler aus und das Modell beugt bei größerer Adoption Staus vor – aufgrund der großen urbanen Bevölkerungsdichte ein nicht zu unterschätzender Faktor.

Abonnement-basierte Geschäftsmodelle gehen heute weit über die ursprünglichen Bereiche heraus: Im industriellen Umfeld ist es für Kunden wesentlich effizienter, schwere Maschinen nutzungsbasiert vom Hersteller zu mieten (beispielsweise ein Traktor, der nach der Größe der bearbeiteten Fläche abgerechnet wird), als sie für hohe Beträge zu kaufen und sie zeitweise ruhen zu lassen. Anbieter von Haushaltswaren können intelligente Thermostate und Glühbirnen auf Abonnement-Basis für das Smart Home anbieten und ihren Kunden somit die neuesten Upgrades zugänglich machen. Das Internet der Dinge ermöglicht die Vernetzung ganzer Städte, wodurch sich im Bereich Mobilität, Nahverkehr, Energie und Verwaltung neue Informations-Hubs auftun. Subscription-Modelle bieten das intelligente Rahmenwerk für die permanente Interaktion zwischen Stadtbewohnern und der sie umgebenden Technologie, die zu einem nachhaltigeren Leben in der Stadt beitragen. So bieten große Energiekonzerne beispielsweise schon Abonnement-Modelle für einen „smarten“ Energieverbauch an.

Selbst der klassische Einzelhandel profitiert von Subscription-Modellen. Verbraucher legen heutzutage immer mehr Wert auf Erlebnisse anstatt dem Eigentum der Produkte selbst. Sie möchten selbst entscheiden zu welchen Bedingungen sie Produkte und Dienstleistungen abrufen und zwar ungebunden von Geschäftsstandorten oder Öffnungszeiten. Die digitale Vernetzung unserer Welt macht all dies möglich. Durch Abonnement-basierte Geschäftsmodelle kann der Einzelhandel Kundenverhalten besser verstehen und den Service kontinuierlich auf die individuellen Bedürfnisse der Kunden anpassen. Dadurch werden aus Gelegenheitskunden Stammkunden. Ein weiterer Vorteil ist zudem eine besser planbarere Finanzierung. Anstatt zu hoffen, dass eine gewisse Stückzahl an Einheiten verkauft wird, können Anbieter mit fortlaufenden Zahlungen der Kunden rechnen.

Kunden hingegen profitieren nicht nur von den auf sie zugeschnittenen Services. Statt eines einmaligen hohen Betrages müssen sie monatlich einen geringen Betrag aufwenden, was die Finanzierung für sie einfacher macht. Des Weiteren müssen sie sich nicht mit kaputten Produkten herumschlagen und können sich ein Bereitstellungsmodell aussuchen, das ihnen am besten passt.

Fazit: Abonnement gehört die Zukunft

Zeiten ändern sich. Das traditionelle und seit jeher gepflegte Tauschmodell „Geld gegen Ware“ steht kurz vor der Ablösung. In Zeiten unzähliger Angebote für vergleichbare Waren kann die Nutzererfahrung das Zünglein an der Waage sein, welcher Marke Verbraucher ihr Vertrauen schenken. Anbieter sind darauf angewiesen, noch näher am Kunden zu operieren und genau zu wissen, wie ihre Produkte ankommen. Die Vernetzung sämtlicher Geräte spielt ihnen dabei in die Hände und gibt ihnen Zugang zu wichtigen Daten, die sie zur Analyse heranziehen können. Dazu sind sie allerdings darauf angewiesen, ihr Geschäftsmodell zu überdenken. Denn wer nicht den Kunden ins Zentrum seines Geschäfts rückt, wird erst merken, dass dieser unzufrieden ist, wenn er weg ist.

Weitere Informationen unter:
www.zuora.com

Über den Autor:

Frank Unger ist seit dem 01.Mai 2017 Vice President für die DACH Region bei der Zuora Inc. Er verfügt über mehr als 30 Jahre Erfahrung im IT Vertrieb und hatte dabei die Vertriebsverantwortung in unterschiedlichen Rollen bei Unternehmen wie Parametric Technology, Documentum/EMC oder Salesforce.

Bereit für den Datenschutz

Gastbeitrag von Mervyn Kelly, EMEA Marketing Director bei Ciena

Am 25. Mai dieses Jahres ist die Datenschutz-Grundverordnung (DSGVO) in der Europäischen Union in Kraft getreten. Sie bietet einerseits den Bürgern den Schutz ihrer persönlichen Informationen, andererseits ist sie für Unternehmen eine Herausforderung. Informationen, mit deren Hilfe eine Identifizierung eines Menschen möglich ist, fallen unter ein besonders strenges Regelwerk.

Die neuen Bestimmungen sehen eine Harmonisierung der Datenschutzrichtlinien in der gesamten EU vor und ersetzt die bisherigen Vorschriften. Innerhalb von 72 Stunden müssen Unternehmen die zuständigen Behörden nach einer Entdeckung einer Datenschutzverletzung informieren. Diese Richtlinie gilt sowohl für alle Unternehmen und Organisationen in der EU als auch für solche, die zwar ihren Firmensitz außerhalb der Union haben, aber Waren und Dienstleistungen in den Gültigkeitsbereich der DSGVO liefern.

Mervyn Kelly, EMEA Marketing Director bei Ciena empfiehlt auch die Art der Datenübertragung im Kontext der DSGVO zu berücksichtigen und geeignete Schutzmaßnahmen zu wählen.

Ein Verstoß gegen die DSGVO könnte Unternehmen teuer zu stehen kommen. Verletzungen kosten sie wahlweise bis zu 20 Millionen Euro oder vier Prozent des weltweiten Jahresumsatzes – je nachdem, welcher Betrag höher ist. Dies ist wesentlich mehr als unter der alten Gesetzgebung, die Verstöße mit höchstens 300.000 Euro belegte. Die neue Direktive trägt den veränderten Bedingungen in der IT Rechnung und betrifft nicht nur ruhende, im Unternehmen oder der Organisation befindliche Daten, sondern schließt auch solche ein, die in öffentlichen, privaten beziehungsweise hybriden Cloudumgebungen übertragen werden.

Um die Sicherheit ihrer Organisationen in Zukunft zu gewährleisten, müssen Netzwerkbetreiber und Dienstleister daher wirksame Methoden zum Schutz ihrer Daten nicht nur bei der Speicherung, sondern auch während der Übertragung in Betracht ziehen.

Glasfasernetzwerke verletzbar

Nachdem festgestellt wurde, dass der Datenschutz für das C-Level der Unternehmen ein kritisches Thema ist – insbesondere für Unternehmen, die sich hauptsächlich mit Endverbrauchern befassen, wie z.B. im Banken-, Gesundheits- und Einzelhandelsbereich – ist es wichtig, die Möglichkeiten zu verstehen, die den Betreibern im Hinblick auf eine effektive Datensicherung zur Verfügung stehen. Die Sicherung der internen Infrastruktur ist nur ein Aspekt, auch die Daten, die über das Netzwerk transportiert werden, sollten berücksichtigt werden. Es ist relativ einfach, Informationen während der Übertragung über Glasfasernetze abzufangen. Mit einem relativ einfachen Fiber-Tap-Kit können Cyberkriminelle Informationen extrahieren, indem sie eine Weiche an das Glasfaserkabel anklemmen und das Signal spleißen – dies wird am einfachsten an Repeaterstationen und Anschlussdosen erreicht. Das Wissen über das Vorgehen ist ebenso einfach zu bekommen. Lehrvideos auf bekannten Streaming-Plattformen reichen aus, um lange Zeit unbemerkt Daten abzugreifen.

Dies verdeutlicht die Notwendigkeit, einen Schutz in das Datenübertragungssystem einzubauen, sodass die extrahierten Daten für den Hacker nicht lesbar sind.

Verschlüsselung als Waffe

Ein wirksames Mittel dagegen ist die Verschlüsselung des Datenverkehrs. Lösungen dazu befinden sich bereits auf dem Markt. Voraussetzung für einen spürbaren Schutz ist eine permanent laufende Verschlüsselung. Dadurch werden Bedienungsfehler ausgeschlossen, da sie nicht deaktivierbar und ständig aktiv ist. Manche Verschlüsselungen führen zu einem langsameren Datendurchsatz. Der IPsec-Datendurchsatz kann so je nach den zu verschlüsselnden Daten auf weniger als 50 Prozent sinken. Das kann vermieden werden, indem eine Hardware-basierte Layer-1-Lösung gewählt wird. So kann die Verschlüsselung nahezu verlustfrei erfolgen, was die Geschwindigkeit der Datenübertragung anbelangt. Außerdem ist bei einer Hardware-basierten Verschlüsselung mit einer niedrigen Latenzzeit zu rechnen. Eine hohe Latenz kann, da die Übertragung von Datenpaketen mit einer Prüfsumme auf die fehlerfreie Übermittlung überprüft wird, ebenfalls zu einer Verlangsamung des Datendurchsatzes führen, was zu einem negativen Nutzererlebnis führen kann.

Nicht zuletzt kann ein dediziertes Verschlüsselungsmanagement zu einem Plus an Sicherheit führen. Hier kann das Netzmanagement aufgeteilt werden. Die IT-Administration des Endkunden erhält die vollständige Kontrolle über Sicherheitseinstellungen, während der Netzbetreiber die Funktionalität des Netzwerks sicherstellt. Einer der Anbieter eines solchen Systems ist Ciena.

Mit zunehmender Regulierung müssen Betreiber die Sicherheit als oberste Priorität und Unterscheidungsmerkmal betrachten, da Kundenvertrauen und die Folgen von Datenverstößen je nach Situation Erfolg oder Untergang bedeuten können. Durch die Investition in eine effektive Verschlüsselung können Betreiber Schutz gewährleisten, ohne die Geschwindigkeit der Datenübertragung zu beeinträchtigen, und dadurch das Vertrauen und die Zufriedenheit ihrer Kunden erhöhen.

Weitere Informationen unter:
http://www.ciena.de/

Process Days 2018: Governance, Risk und Compliance prozessorientiert managen

Die neue GRC-Lösung von GBTEC – erstmalig präsentiert auf den Process Days 2018.
GBTEC lädt Kunden und Interessierte ein, um auf der Fachveranstaltung für Prozessmanagement über die Herausforderungen an unternehmensweites Governance, Risk & Compliance (GRC) zu diskutieren

 

Pressemitteilung, 30.05.2018
Schon zum 13. Mal empfängt GBTEC Software + Consulting AG seine Kunden sowie an Business Process Management (BPM) interessierte Entscheider im Juni 2018 auf der jährlich stattfindenden Veranstaltungsreihe Process Days. Teilnehmer erhalten auf der kostenlosen Roadshow einen fachspezifischen Einblick in aktuelle BPM-Themen und innovative Software-Lösungen. Zudem tauschen sie sich mit ausgewählten Fachreferenten über die Zukunft der digitalen Transformation aus. An den fünf Eventorten, die über den deutschsprachigen Raum verteilt sind, steht in diesem Jahr die prozessorientierte Steuerung von GRC (Governance, Risk & Compliance) im Vordergrund.

Risikomanagement

Internationale Regularien und gesetzliche Anforderungen haben sich in den letzten Jahren deutlich verschärft. Unternehmen stehen vor der großen Herausforderung, die sich wandelnden Vorgaben und Richtlinien Compliance-gerecht einzuhalten. Zudem gilt es, die Gefahr der Nicht-Einhaltung von Vorschriften durch unternehmensweites Risikomanagement zu minimieren. Um der Komplexität dieser Aufgaben gerecht zu werden, ist eine enge Zusammenarbeit der Handlungsebenen Corporate Governance, Risikomanagement und Compliance-Management erforderlich.

 

Automatisierung von GRC-Prozessen

Die BPM-Lösung BIC von GBTEC beinhaltet seit Jahren ein umfassendes Modul zur Modellierung eines Internen Kontrollsystems (IKS), mit dem zahlreiche Kunden unternehmerische Risiken erfolgreich organisieren. Bei der konsequenten Weiterentwicklung der Software hat sich GBTEC der Herausforderung gestellt, die BPM-Suite BIC Cloud um eine leistungsstarke Workflow-Engine zur Automatisierung von GRC-Prozessen zu erweitern.

Mithilfe der neuen Lösung, die bei Kunden aus verschiedensten Branchen im Einsatz ist, wird der gesamte Kreislauf eines Internen Kontrollsystems von der Identifikation über die Analyse und Steuerung bis zur Überwachung von geschäftlichen Risiken workflowgestützt abgebildet und protokolliert.

Neben der Risikoerfassung unterstützt BIC Cloud GRC zum Beispiel aktiv die Steuerung und Durchführung von Kontrollen, sowie Angemessenheits- und Wirksamkeitsprüfungen. Durch das intuitive Dashboard erfasst der Anwender schnell den aktuellen Status von Risiken und Kontrollen.

++ Gregor Greinke, Gründer und Vorstand von GBTEC Bildquelle: https://www.gbtec.de/

„Die neue Lösung BIC Cloud GRC findet bei unseren Kunden bereits großen Anklang. Auf den Process Days werden wir einen spannenden Einblick in das neue Tool geben. Die Besucher werden live erfahren, wie schnell und komfortabel die Erfassung neuer Risiken, Kontrollen und Maßnahmen mit BIC Cloud GRC erfolgt“, fasst GBTEC Vorstand Gregor Greinke zusammen.

Anschließend an die Produktvorstellung geben die Process Days einen praxisnahen Einblick in die konkrete GRC-Umsetzung eines großen internationalen Versicherungskonzerns. Der Fokus liegt hierbei sowohl auf den Herausforderungen des Konzerns als auch auf den dazugehörigen Lösungskonzepten des Risikomanagements.

Darüber hinaus erwartet die Besucher der Process Days ein Vortrag der BDO IT GmbH zur neuen Datenschutzgrundverordnung (DSGVO). Die konsequente Einhaltung der Verordnung erfordert risikoorientiertes Maßnahmenmanagement und steht damit im engen Zusammenhang mit den GRC-Anforderungen. Die Präsentation wird einen verständlichen Abriss über die neuen gesetzlichen Anforderungen sowie hilfreiche Tipps für eine flexible und toolgestützte Einhaltung der Vorschriften vermitteln.

 

Termine+

Das BPM-Event wird in diesem Jahr an den Standorten
Berlin (05.06.2018),
Frankfurt am Main (07.06.2018),
Zürich (14.06.2018),
Köln (26.06.2018) und
München (28.06.2018) angeboten.

Kostenfreie Tickets

Nähere Informationen sowie kostenfreie Tickets können über die Internetseite der GBTEC (www.gbtec.de) oder telefonisch unter +49 234 97645-132 bezogen werden.

 

 

Aufmacher / Quelle / Lizenz
Pixabay / CC0 Creative Commons

Erneuerbare Energien müssen flexibler werden

Gastbeitrag von Louis Shaffer, Distributed Energy Segment Manager EMEA bei Eaton

Die Zeit der fossilen Energieträger neigt sich langsam ihrem Ende entgegen, die Zukunft liegt vor allem in Wind- und Solarenergie. Doch wie stellen wir sicher, dass die Lichter nicht ausgehen, wenn Flaute herrscht oder Wolken aufziehen? Louis Shaffer, Distributed Energy Segment Manager EMEA bei Eaton, beschäftigt sich mit der Frage, wie sich Versorgungsengpässe vermeiden lassen.

Erneuerbare Energien, besonders Wind- und Solarenergie, werden in der näheren Zukunft die Hauptlast unserer Stromerzeugung stemmen. Das hat rein ökonomische Gründe, da die Erzeugungskosten in diesen Bereichen weiter fallen werden. Sowohl Endkunden, als auch Netzbetreiber müssen diesen Aspekt im Blick behalten, da dies einen großen Einfluss auf die Dynamik der Energiewende hat.

Veränderungen, die über einen langen Zeitraum eine neue ökonomische Realität schaffen, werden exponentielle Veränderungen genannt. Dabei finden pro Jahr nur geringe Änderungen von wenigen Prozent statt, über eine Zeitspanne von 40 oder 50 Jahren können diese aber ganze Branchen komplett umkrempeln. Moore’s Law brachte zunächst nur bessere Desktop-PCs hervor; heute beschert es uns Smartphones, kostenlose Langstreckenkommunikation und unbegrenzte Rechenkapazitäten, die erst den Aufstieg von künstlicher Intelligenz ermöglichen. Ein solcher Wandel verläuft schleppend und bleibt oft für mehrere Jahre unbemerkt, so dass sein revolutionärer Einfluss vielfach unerkannt bleibt. Doch plötzlich erreicht der stetige Wandel eine kritische Phase, nämlich dann, wenn das Preisleistungsverhältnis einen bestimmten Punkt erreicht. Was man schon bei Mikrochips und Flachbildschirmen beobachten konnte sehen wir nun auch bei Solar- und Windenergie.

Ökologisch und wirtschaftlich

Die Erneuerbaren haben die Schwelle zur billigsten Energieform schon überschritten und heute bekommen Ökostromprojekte Zuschläge aus rein ökonomischem Kalkül und ganz ohne Subventionen. Bei neuen Projekten haben die alternativen Energien schon die Nase vorn, doch bald werden sie auch günstiger sein, als die Energieerzeugung mit bestehenden konventionellen Kraftwerken. Dadurch wird sich unser Energiemix sehr schnell verändern und bald wird sich ein Großteil unserer Stromversorgung aus variablen regenerierbaren Energiequellen speisen. Das hat große Auswirkungen auf die europäischen Versorgungssysteme, sowohl von Kunden- als auch Netzbetreiberseite. Um rechtzeitig regulierende Maßnahmen zu treffen ist es wichtig, die wirtschaftlichen Triebkräfte und das rasante Tempo hinter dem Wandel zu verstehen.

Eine aktuelle Wirtschaftsstudie von Bloomberg New Energy Finance im Auftrag von Eaton und der Renewable Energy Association (REA) analysiert diese Zusammenhänge. Dazu wurden detaillierte meteorologische und ökonomische Daten ausgewertet, die zeigen, dass einer der Wendepunkte auf dem Weg der Erneuerbaren zur dominierenden Energieform schon erreicht wurde. Die Studie untersucht auch, ob es noch weitere solcher Wegmarken geben wird.

Schon heute ist Wind und Sonnenenergie billiger, als Strom aus neuen Kohle- und Gaskraftwerken, sowohl in Großbritannien, als auch in Deutschland. Die Marktentwicklung lässt darauf schließen, dass Ende 2020 Ökostrom aus neuerrichteten Produktionskapazitäten sogar konventionelle Energie aus bestehenden Kraftwerken im Preis unterbieten wird.

„Der Wendepunkt: Flexibilitätslücken in zukünftigen erneuerbaren Energiesystemen in Großbritannien, Deutschland und Skandinavien“ macht deutlich, wie schnell sich neue Energiequellen vermutlich ausbreiten werden. Außerdem zeigt die Studie die Notwendigkeit von ausreichend flexiblen Erzeugungsarten sowie möglichst klimaneutralen Back-up-Systemen. Denn bei regenerativen Energien ergibt sich das Problem von saisonalen Engpässen. Daneben erwarten die Analysten ein Wachstum in den Bereichen Elektromobilität und Energiespeicherung.

Mit dem Einsatz erneuerbarer Energien wächst die Unsicherheit

Während ein Mix aus verschiedenen erneuerbaren Energien immer öfter eine immer größere Nachfrage stillen wird, werden gleichzeitig häufiger Probleme mit der Unbeständigkeit von Sonne und Wind auftreten. Zusätzlich zu tageszeitbedingten Schwankungen kommen noch längerfristige Abweichungen, die sich zu saisonalen Engpässen auswachsen. Für die konventionellen Kraftwerke, die das Back-up-System bilden, stellt das eine große Herausforderungen dar – Kern- und Kohlekraftwerke lassen sich nicht spontan binnen Stunden hoch- und herunterfahren.

Doch auch die Batteriespeichertechnologie verzeichnet gerade einen enormen Kostenrückgang, was nicht zuletzt auch auf die steigende Nachfrage nach mobilen Geräten und Elektroautos zurückzuführen ist. Die Technologie befindet sich im Reifestadium und wird vermehrt eingesetzt um Energieangebot und -nachfrage in Einklang zu bringen. Vorausgesetzt, dass Regierungen und Behörden die Netzregularien anpassen, damit zentrale und dezentrale Batteriespeicher entstehen können, sind die Voraussetzungen geschaffen, um der Unbeständigkeit des Wetters entgegenzuwirken und dabei gleichzeitig ein umweltfreundliches, stabiles und kosteneffizientes Stromnetz zu schaffen.

Sonne und Wind sind natürlich nicht das ganze Jahr über in der gleichen Intensität verfügbar, was zu den saisonalen Engpässen führt. Besonders wenn Wolken oder Nebel und Windstille zusammenkommen, wird ein Alternativsystem benötigt, um der Nachfrage gerecht zu werden. Trotz des massiven Anstiegs bei der Erzeugung erneuerbarer Energien wird die 2040 benötigte Back-up-Kapazität etwa der von 2017 (70 – 97 GW) entsprechen, wie die Studie zeigt. Solche großen Lücken lassen sich nicht mit aktuellen Stromspeichertechnologien bewältigen. Dafür sind weitere Maßnahmen nötig, wie Erdgaskraftwerke, Biogasanlagen oder Übertragungsleitungen über lange Strecken.

Eine andere Möglichkeit wäre, dem Beispiel der Nordischen Länder zu folgen, deren Energiesystem zu großen Teilen auf Wasserkraft setzt. Die Stromerzeugung aus Wasser unterliegt weniger wetterbedingten Schwankungen und kann Defizite bei Wind und Sonne ausgleichen. Die Flexibilität der Wasserkraftwerke erlaubt es außerdem Strom gezielt aus dem Norden nach Deutschland und Großbritannien zu exportieren, wenn dort erhöhter Bedarf besteht.

Die Wirtschaftlichkeit von variablen Erneuerbaren Energien macht das Wachstum dieses Sektors unausweichlich. Die Studie wirft einen ökonomischen Blick auf die Geschwindigkeit dieses Wachstums und die Flexibilität, die nötig ist, um unser Stromnetz aufrecht zu erhalten und effizient zu betreiben. Schneller als wir glauben werden die Erneuerbaren einen Punkt erreichen, an dem sie für uns unverzichtbar sind. Das bringt neue Herausforderungen mit sich, in Bezug auf Unbeständigkeit und jahreszeitbedingte Ausfälle.

Genaue Daten legen Chancen und Risiken offen

Die Studie zeigt detailliert den Zeitverlauf des Wachstums bei Sonnen- und Windenergie sowie die Engpässe und führt dann verschiedene Möglichkeiten an, um den neuen Dynamiken und Problemen zu begegnen. Beispielsweise ist ein reguläres Speichernetz nicht nur essentiell um mit den großen Schwankungen zurecht zu kommen, die der Einsatz erneuerbarer Energien hervorruft, es würde auch den Einsatz von Back-up-Kraftwerken effizienter machen, da es die Nachfrage verwaltet und so Systemkosten senkt. In der nächsten Phase der Studie, die im Laufe des Jahres erscheinen wird, will Eaton mit REA, Bloomberg New Energy Finance und anderen Partnern die Analyse potentieller Lösungen und Chancen noch ausweiten.

Eines ist sicher, der Fortschritt lässt sich nicht aufhalten und regenerative Energien werden eine Schlüsselrolle in unserer Energieversorgung spielen. Um ein ausbalanciertes Wachstum dieser sauberen und günstigen Energiequellen in Kombination mit möglichst CO2-neutralen Back-up-Lösungen zu ermöglichen brauchen wir ein sorgfältig abgestimmtes Marktdesign. Die existierenden Batteriespeicherlösungen werden zusammen mit neuen Tools eine entscheidende Rolle bei der Energiewende spielen.

Weitere Informationen unter:
www.eaton.com

Schützenhilfe für die Suche nach dem idealen RPA-Begleiter

Ein neuer internationaler IEEE-Standard soll Begrifflichkeiten und Auswahlprozesse in Sachen intelligente Prozessautomatisierung (IPA) verbessern. Wichtige Schritte auf dem Weg zum RPA-Erfolg.

Digitalisierung und Prozessautomatisierung sind in aller Munde. Für eine effizientere Gestaltung ihrer Arbeitsabläufe fehlt Firmen jedoch bislang eine einheitliche Stoßrichtung, die sie verfolgen können. Die gemeinsame Initiative führender RPA-Anbieter unter Federführung des Institute of Electrical and Electronics Engineers (IEEE) möchte nun Abhilfe schaffen und für mehr Transparenz sowie einheitliche Kommunikation im Markt für Prozessautomatisierung sorgen. Die folgenden Ausführungen zeigen, was die IEEE-Initiative und Another Monday, der einzige deutsche Anbieter, der sich aktuell an diesem Vorhaben beteiligt, erreichen möchten, und worauf Unternehmen zu Beginn eines RPA-Projektes achten sollten.

Der Einsatz von Robotic Process Automation (RPA) ermöglicht Unternehmen Kostenersparnisse von bis 75 Prozent und Automatisierungsraten von bis zu 99 Prozent. Laut aktueller Studie „ISG Automation Index“ wollen bis zum Jahr 2019 rund 72 Prozent der befragten Unternehmen aus den USA, Großbritannien, Frankreich und Deutschland RPA im laufenden Betrieb oder als Test in Pilotprojekten einsetzen. Die Herausforderung: Der globale Markt für RPA ist stark fragmentiert – sowohl wenn es um die Anzahl der verschiedenen Lösungen geht, als auch hinsichtlich der Kernbegriffe. Welche Prozesse lassen sich automatisieren? Für welche Unternehmen lohnen sich Software-Roboter? Auch eine einheitliche Definition, die für Vereinfachung und Transparenz sorgt, fehlte bislang. Another Monday treibt nun als erster Anbieter aus Deutschland die Entwicklung eines Standards mit voran, der eine einheitliche Taxonomie und Klassifizierung für RPA zum Ziel hat. Mithilfe dieses Standards, der noch 2018 veröffentlicht wird, können Unternehmen auf der Suche nach der optimalen RPA-Lösung künftig ihre individuellen Anforderungen mit dem Marktangebot abgleichen.

IEEE-Standard enthält 160 Kriterien für RPA-Lösungen

Das Institute of Electrical and Electronics Engineers, kurz IEEE, ist ein anerkannter Zusammenschluss von Ingenieuren mit Expertise für technische Standards. Ein Bereich ist hierbei Intelligent Process Automation. Ein erster Standard, der die wichtigsten Definitionen aus den Bereichen RPA und IPA zusammenfasst und vereinheitlicht, ist bereits 2017 erschienen. Das IEEE-Komitee arbeitet zurzeit an einem zweiten Standard, der laut aktuellem Stand 160 Kriterien für RPA-Lösungen zusammenfasst. Darin werden relevante Aspekte transparent beschrieben und klassifiziert, damit Anwender marktgängige Technologien besser einordnen und vergleichen können. Die Taxonomie der Kriterien erleichtert es Unternehmen, zentrale Aspekte des eigenen Anforderungskatalogs zu bewerten – beispielsweise, wie skalierbar eine Automatisierungslösung und wie hoch der Implementierungsaufwand ist.

Der Standard ist für Unternehmen insofern wichtig, da es am Markt aktuell zahlreiche Technologien und Begrifflichkeiten für die softwarebasierte Prozessautomatisierung gibt, die den eigentlichen Nutzer in der Regel insbesondere zu Beginn eines Automatisierungsprojekts vor die schier unmögliche Aufgabe stellen, zu ermitteln, welche Lösung sich für die eigene Herausforderung eignet. Denn die eine beste Lösung gibt es nicht, lediglich die für die teils sehr spezifischen Anforderungen passende beste Option. Die Tatsache, dass sich der RPA-Markt rasant weiterentwickelt, erschwert diese Aufgabe zusätzlich.

Hans Martens: „Die Automatisierung betrieblicher Abläufe ist kein Projekt, das mit dem Tag der Implementierung abgeschlossen ist. Nur wenn sich hieran ein kontinuierliches Monitoring anschließt und Software-Roboter bei Veränderung der Systemlandschaft entsprechend angepasst werden, hat die RPA-Initiative Aussicht auf nachhaltigen Erfolg.“

RPA-Kenntnis schützt vor Fehlinvestitionen

Begriffe wie Robotic Desktop Automation (RDA), Robotic Process Automation (RPA) und Intelligent Process Automation (IPA) werden häufig synonym verstanden und genutzt. Kenntnisse über die feinen Unterschiede der Technologien und die diversen Einsatzgebiete könnten Firmen und Organisationen hingegen kostbare Zeit schenken. Klare Standards tragen dazu bei, Endverbraucher aufzuklären, Auswahlprozesse zu vereinfachen und verlässliche Qualitätskriterien festzulegen.

Transparenz und einheitliche Kommunikation im Markt für softwarebasierte Prozessautomatisierung sind eine positive Entwicklung für sowohl Endanwender als auch Anbieter und die Branche an sich. Unternehmen wird so die Suche nach einer für sie optimalen RPA-Lösung erleichtert, zugleich aber auch das Marktverständnis der Anbieter als Abgleich mit den sich stetig ändernden Kundenbedürfnissen verbessert. Hans Martens, Gründer von Another Monday, führt aus: „Der IEEE-Standard will eine bessere Einordnung und einen optimierten Vergleich marktgängiger Technologien erreichen. Prozessautomatisierung ist viel mehr als ein Software-Tool. Erst mit der richtigen Kombination aus Methodik und Technologie lässt sich die ideale Lösung finden und gemäß dem konkreten Anwendungszweck skalieren. Denn wenn Kunden frühzeitig verstehen, was genau eine RPA-Lösung leisten kann, ist die Basis für ein partnerschaftliches Verhältnis mit Investitionssicherheit gelegt.“

Leistungsstarken Begleiter und Partner für die Automatisierungsreise finden

Die Anbieterauswahl ist zentrale Aufgabe zu Beginn eines RPA-Projekts. Unter den zahlreichen Unternehmen, die ihre Vorzüge anpreisen, fällt es oft nicht leicht, die essentiellen Kriterien zu erkennen. Zudem wird unter RPA oft noch immer eine Technologie verstanden, die als Wunderwaffe jeden Prozess schnell und einfach automatisieren kann. Firmen müssen jedoch bedenken, dass sie das Werkzeug RPA effizient, umfassend und sinnvoll einsetzen müssen, um eine erfolgreiche sowie skalierbare Prozessautomatisierung zu realisieren. Da der derzeitige Fokus häufig auf dem RPA-Tool allein liegt, sind in der jüngsten Vergangenheit viele Automatisierungsvorhaben gescheitert. Daher sollte die detaillierte Analyse vermehrt in den Vordergrund rücken. Martens erläutert: „Die Automatisierung betrieblicher Abläufe ist kein Projekt, das mit dem Tag der Implementierung abgeschlossen ist. Nur wenn sich hieran ein kontinuierliches Monitoring anschließt und Software-Roboter bei Veränderung der Systemlandschaft entsprechend angepasst werden, hat die RPA-Initiative Aussicht auf nachhaltigen Erfolg.“

Gut geplante Automatisierungsreise

Bereits bei der Auswahl geht es um die Gestaltung der „Automatisierungsreise“: Wie begleitet und vor allem befähigt ein RPA-Anbieter zu einer erfolgreichen Automatisierung? Wer diese Frage zukunftsorientiert beantworten will, muss die Strategie des jeweiligen Anbieters genau unter die Lupe nehmen: Vertreibt das Unternehmen reine Lizenzen und liegt der Fokus auf einer schnellen Verbreitung? Oder ist der Anbieter an einer partnerschaftlichen Beziehung interessiert und kann eine Skalierung der angebotenen Lösung ermöglichen?

Beratungskompetenz als Schlüssel zum Erfolg

Der Schlüssel erfolgreicher RPA-Projekte ist eine klare Methodik bei der Implementierung mit sauberer und intensiver Prozessanalyse. Unternehmen sollten sicherstellen, dass der potentielle Anbieter eine derartige Methodik und die nötige Beratungskompetenz vorzuweisen hat. Sofern RPA auch zu einer unternehmensinternen Kompetenz geworden ist, lässt sich langfristig selbst automatisieren. Der Anbieter sollte im Idealfall RPA als ein ganzheitliches Projekt angehen, das mit einer intensiven Beratung und Analyse startet und alle relevanten Entscheider miteinbezieht.

Zudem muss umfassende Akzeptanz für das RPA-Projekt geschaffen werden, und der Anbieter sollte dem Anwender-Unternehmen von der Entwicklung bis zur Implementierung und auch nach Inbetriebnahme der Software-Roboter beratend zur Seite stehen. RPA ist hierbei kein Allheilmittel, sondern eine intelligente Ergänzung, um ein effizientes Zusammenspiel von Mensch und Maschine zu ermöglichen. Rentiert sich der Einsatz nicht, ist ein Abraten vonseiten des Anbieters sinnvoll und fair. Last but not least muss auf ein transparentes und faires Preismodell geachtet werden: Pay-Per-Use Preismodelle, bei denen pro erfolgreich automatisiertem Prozessdurchlauf abgerechnet wird, zeigen, ob ein Anbieter von seiner Lösung überzeugt ist. Gleichzeitig sorgt dieses Preismodell für eine erfolgreiche Automatisierung.

Blick in die Zukunft: RPA im Spannungsfeld Künstlicher Intelligenz

Zwar ist Künstliche Intelligenz derzeit eines der viel diskutierten Trendthemen schlechthin. Jedoch sind viele Unternehmen und Branchen noch nicht soweit, dass KI zentrale Aspekte der Wertschöpfung aufnimmt. Bei RPA-Projekten geht es zunächst darum, manuell-intensive, wiederholbare Prozesse ausfindig zu machen, die sich automatisieren lassen. Im Zusammenspiel mit Ansätzen, die auf Künstlicher Intelligenz basieren, ließe sich diese Auwahl bestgeeigneter Automatisierungsprozesse unterstützen, optimieren und abermals automatisieren. Allerdings ist dies aktuell noch Zukunftsmusik. Ein Roboter, der eigenständig lernt, benötigt Unmengen an Informationen, die zunächst gesammelt werden müssen – ein langwieriges und auch rechtlich schwieriges Thema.

KI und Machine Learning kommen heute primär dort zum Einsatz, wo große Datenmengen analysiert, verglichen oder strukturiert werden. Doch während KI und Machine Learning den Bereich des Lernens und Denkens abdecken, behandelt RPA das wichtige Ausführen der jeweiligen Arbeitsschritte. Um Geschäftsprozesse intelligent zu automatisieren, macht die Kombination beider Bereiche Sinn. Der nächste Schritt werden sogenannte „Selfhealing Robots“ sein, die beispielsweise nach einem Software-Update oder Patch eigenständig etwaige Änderungen in den grafischen Oberflächen der automatisierten Programme abfangen und sich so selbst reparieren. Mit dieser Lösung wird sich der Pflegeaufwand großer Roboterfarmen enorm senken lassen.

Weitere Informationen unter:
www.anothermonday.com

Beim Talent Management klaffen Wunsch und Wirklichkeit weit auseinander

Dies ist ein Gastbeitrag von Steve Wainwright, Managing Director, EMEA der Skillsoft Gruppe

Die große Mehrheit deutscher Unternehmen hat die Wichtigkeit von Talent Management erkannt. Vermehrt werden bereits entsprechende Technologieplattformen eingesetzt. Alles gut? Keineswegs! Es fehlt nicht an Systemen, sondern an System!

65% aller Personaler finden ihr Talent Management innovativ. Aber nur knapp 30 % der Mitarbeiter stimmen dem zu. Zu diesem Ergebnis kommt die aktuelle Studie „Trust in Talents“ der Personal- und Managementberatung Kienbaum. Darüber hinaus stufen 83% der 204 befragten HR-Entscheider die Dringlichkeit von Talent Management als hoch ein. Doch nur jedes zweite Unternehmen hat bereits eine Strategie entwickelt, wie qualifizierte Mitarbeiter gezielter rekrutiert, gefördert sowie möglichst langfristig gehalten werden können.

Entsprechend hoch ist der Frustrationsfaktor, wie der repräsentative „Gallup Engagement Index“ zeigt: Demnach verspüren 70% der rund 1.400 befragten Arbeitnehmer in Deutschland lediglich eine geringe Bindung an ihren Job und verrichten mehr oder weniger Dienst nach Vorschrift. Weitere 15% haben bereits innerlich gekündigt. Die damit verlorengegangene Produktivität kostet die deutsche Volkswirtschaft laut Gallup 105 Milliarden Euro jährlich.

Vorgesetzte überschätzen ihre Führungskompetenz

Neben unzureichenden Weiterbildungsangeboten – speziell zu digitalen Themen – und geringen persönlichen Entwicklungsperspektiven ist die schlechte Führungsqualität von Vorgesetzten ein großes Ärgernis von Mitarbeitern, das nicht selten auch Grund für eine Kündigung ist. Auch in diesem Punkt besteht offenbar ein krasses Missverhältnis zwischen der Eigenwahrnehmung von Führungskräften und den Wünschen der Mitarbeiter: wie die Gallup-Studie herausfand, ist nur jeder Fünfte aufgrund der erlebten Führung in seinem Unternehmen hochmotiviert, überdurchschnittlich gute Arbeit zu leisten. Das sehen die Vorgesetzten ganz anders – 97% halten sich für gute Führungskräfte.

Besonders aufschlussreich sind in diesem Zusammenhang die weiterführenden Ergebnisse des Statista Arbeitgeber-Rankings 2018: sie zeigen, dass die Bewertungskriterien „Miteinander & Vorgesetztenverhalten“ sowie „Weiterempfehlung & Perspektiven“ den meisten Arbeitnehmern am wichtigsten bei der Wahl ihres bevorzugten Arbeitsplatzes sind. Image und Unternehmenswachstum folgen als Kriterien hingegen erst an dritter Stelle.

Die Diskrepanz zwischen Selbsteinschätzung und Wirklichkeit zeigt: viele Unternehmen schießen in Sachen Talent Management am Ziel vorbei. Zwar wurden in den vergangenen Jahren bereits zahlreiche Investitionen in die Implementierung von Talent Management-Systemen getätigt. Ohne eine grundlegende, an den (digitalen) Geschäftszielen ausgerichtete Strategie bleibt jedoch vieles Stückwerk. Doch wie kann eine wirksame Positionierung der eigenen Organisation im branchenübergreifenden „War for Talents“ gelingen? Die folgenden 5 Überlegungen sollten beim Aufbau einer nachhaltigen Strategie unbedingt einfließen:

Steve Wainwright empfiehlt Weiterbildung als klassisches Mittel zur Mitarbeiterbindung.

1.: Stellen- & Mitarbeiterprofile wandeln sich (künftig permanent)
Das Geschäftsfeld vieler Unternehmen wird im Zuge ihrer digitalen Transformation vielseitiger, umfangreicher und komplexer. Besonders deutlich wird dies am Beispiel des Finanzsektors: hier werden verlustreiche klassische Geschäftsfelder zunehmend durch ein ganzheitliches Portfolio für private und geschäftliche Kunden kompensiert. Die ehemals klare Abgrenzung des Bank-und Versicherungsgeschäfts ist kaum mehr erkennbar.

Die digitale Arbeitswelt erfordert also einen gänzlich anderen Mitarbeitertypus – mit einer wesentlich breiteren Einstiegsqualifikation, permanenter Lernbereitschaft, hoher digitaler Affinität und nicht zuletzt einer ausgeprägten Kompetenz zur Zusammenarbeit in virtuellen Teams. 2 grundlegende Fragestellungen müssen daher klar beantwortet werden: Welche Qualifikationsprofile werden für bestimmte Aufgaben heute und in Zukunft benötigt? Und welches Wissen muss vermittelt werden, um dazu Kompetenz „von innen heraus“ aufzubauen?

2.: Führungskräfte müssen Potenziale erkennen und fördern
Auch das Anforderungsprofil an Führungskräfte hat sich wesentlich gewandelt – insbesondere mit Blick auf ihre Führungseigenschaften. Auf der Grundlage der Unternehmensziele sollten sie in der Lage sein, künftig benötigte Stellen- und Qualifikationsprofile zu entwickeln und kompetente Fachkräfte aufzubauen. Anstelle eines einmaligen Mitarbeitergesprächs pro Jahr sollte eine gute Führungskraft permanente Impulse und regelmäßiges Feedback an die unterstellten Mitarbeiter geben und diese individuell fördern. Die Steuerung praxisnaher Schulungen zur Vorbereitung von Fachkräften auf neue Aufgaben gehört heute ebenfalls zum Verantwortungsbereich einer modernen Führungskraft. Der Aufbau einer emotionalen Mitarbeiterbindung an das Unternehmen hängt wesentlich vom Verhältnis zum direkten Vorgesetzten ab.

3.: Veränderte Job-Prioritäten der Millenials
Die Generation der sogenannten „Digital Natives“ ist erstaunlich konservativ eingestellt. Entsprechend haben sich die Erwartungen und Wertvorstellungen an den Beruf verändert: Galten für die Vorgängergeneration noch flexible, weitgehend selbstbestimmte Arbeitszeiten, Home Office, BYOD und Facebook am Arbeitsplatz als oberste Prämisse, orientieren sich die Prioritäten der Millenials vorwiegend am Aspekt Sicherheit. Arbeitsplatzsicherheit, nachhaltig fachliche und persönliche Entwicklungsperspektiven, klar strukturierte Karrierepfade und eine angemessene Work-Life-Balance fallen in Umfragen unter dieser Personengruppe als häufigste Stichwörter.

4.: Talent Management für alle Mitarbeiter
Talent Management sollte nicht exklusiv auf Führungskräfte oder junge Talente, die neu zum Unternehmen stoßen, beschränkt sein. Ziel muss vielmehr sein, alle Mitarbeiter einzubeziehen. Denn in der Belegschaft schlummert viel Talent. Vor dem Hintergrund des sich verknappenden Fachkräfteangebots am Arbeitsmarkt kann das Entdecken und die gezielte Förderung bislang ungenutzter Potenziale eine echte Alternative zur Neu-Rekrutierung sein. Und es ist möglicherweise effektiver, vakante Positionen mit „gestandenen“ Fachkräften zu besetzen: Denn Schätzungen zufolge braucht ein neuer Mitarbeiter bis zu 38 Wochen, um sein volles Potenzial in einer neuen Stelle zu entfalten. Hingegen kennen Arbeitnehmer, die bereits längere Zeit im Unternehmen tätig sind, die internen Geschäftsabläufe, Vernetzungen und Gepflogenheiten bereits wesentlich besser.

Ein Talent Management für Alle kann ein wirksames Instrument gegen Frustration und innere Kündigung sein. Dies erfordert jedoch die Entwicklung umfassender Konzepte zur individuellen Mitarbeiterförderung. Zur Erinnerung: Mitarbeiter wünschen sich heute von ihrem Arbeitgeber keine Positionen, an denen sie auf unbestimmte Zeit festkleben, sondern einen strukturierten Plan zur Karriereentwicklung. Laut zitierter Kienbaum Studie können sich Mitarbeiter bislang jedoch nur in jedem 3. Unternehmen abseits der „klassischen“ Karrierepfade entwickeln. Es gilt also mehr denn je, das Potenzial jedes einzelnen Mitarbeiters im Unternehmen zu identifizieren und permanent weiter auszubauen.

5.: Die richtigen Anreize setzen
Für Arbeitnehmer ist die Möglichkeit, das zu tun, was man richtig gut kann, fünf Mal mehr wert als das Gehalt, so die Gallup Studie. Mitarbeiter wollen lernen! Speziell im Hinblick auf digitale Fähigkeiten bilden sich bereits mehr als zwei Drittel aller Arbeitnehmer privat weiter. Denn der digitale Wandel schürt Ängste vor einem Arbeitsplatzverlust. Hier können Unternehmen definitiv punkten, wenn sie ein umfassendes, praxisnahes und diversifiziertes Lernangebot zu digitalen Themen vorhalten, das die persönliche Karriereentwicklung positiv beeinflusst.

Indem digitale Kompetenz aufgebaut und kontinuierlich entwickelt wird, können Arbeitgeber der Verunsicherung ihrer Mitarbeiter entgegenwirken. Dieses starke Signal an die Belegschaft – ‚wir lassen Euch nicht im Regen stehen‘ – kann sowohl die Leistungsbereitschaft und Produktivität der Mitarbeiter signifikant steigern als auch eine hohe emotionale Bindung an das Unternehmen schaffen.

Fazit:

Kontinuität statt starrer Positionen, gestalten statt verwalten, motivieren statt blockieren – damit lässt sich im „War for Talents“ erfolgreich punkten. Gerade Unternehmen, die im Arbeitgeber-Ranking nicht unter den Top 10 ihrer Branche rangieren oder deren Branche per se ein Attraktivitätsproblem hat, sollten die Anforderungen ihrer Mitarbeiter stärker adressieren. 2 Dinge sind festzuhalten: Talent Management ohne Strategie ist wie ein Sportwagen ohne Zugkraft. Und: Talent Management muss endlich zur Chefsache werden. Dann kann es ein machtvolles Steuerungsinstrument sein, um qualifizierte Mitarbeiter zu gewinnen, zu entwickeln und – über Motivations-, Lern- und Anreizsysteme – langfristig im eigenen Unternehmen zu halten.

Weitere Informationen unter:
www.skillsoft.com

 

Bildquelle Aufmacher: https://www.shutterstock.com/de/image-photo/freelance-work-casual-dressed-man-sitting-289151351 (zur Verfügung gestellt von Skillsoft)

Bildquelle / Lizenz Portrait: Steve Wainwright / Skillsoft

Forschung und Entwicklung in Zeiten des IoT

Dr. Armin Schulz ist überzeugt davon, dass auch die Forschung und Entwicklung in den Unternehmen sich vor dem Hintergrund des Internets der Dinge neu aufstellen muss. Essenziell wird es aus seiner Sicht sein, in Services und Dienstleistungen ausgehend von den Bedarfen der Kunden zu denken. Die dadurch entstehenden Herausforderungen erläutert der Geschäftsführer von 3DSE Management Consultants im Gespräch mit der TREND REPORT-Redaktion.

Vor welche Herausforderungen stellt das IoT die F&E Bereiche in Unternehmen?
Das IoT basiert ja auf der Vernetzung von bisher einzelnen, getrennten Systemen. Der Wert eines Systems, also der Nutzen, den es für einen Anwender bietet, basiert zukünftig stark auf der Vernetzung mit anderen Systemen und den sich daraus ergebenden Möglichkeiten. Zudem werden neue, „systemübergreifende“ Angebote möglich für Dienstanbieter, die mehrere Systeme nutzen, aber kein eigenes System entwickeln oder anbieten. Für die F&E Bereiche bedeutet das vor allem, dass sie zukünftig stark über die Grenzen ihres eigenen Systems hinausdenken und sich fragen müssen: „In welchem Netzwerk agiert mein System bzw. muss mein System funktionieren?“ Der Betrachtungsumfang wird somit ein ganz anderer. Die Schwierigkeit dabei entsteht daraus, dass ein Großteil der anderen Systeme im Netzwerk überhaupt nicht selbst beeinflusst werden kann, aber das Zusammenspiel trotzdem beherrscht werden muss. Den Anwender interessiert es nicht, wer der „Owner“ eines Systems ist, er will nur, dass das Produkt oder der Service, den er kauft, funktioniert, unabhängig davon welche Systeme im Hintergrund zusammenwirken müssen. F&E Bereiche müssen daher neue Kompetenzen aufbauen, um das Spiel unter den neuen Spielregeln erfolgreich zu gestalten. Was sind die Use Cases des Kunden? Wie läuft die Customer Journey ab? Welche Rolle spielt mein System in dieser Customer Journey? Wie gewährleiste ich das einwandfreie Zusammenspiel meines Systems mit den anderen Systemen im IoT? Das Denken vom Kundenproblem her und in Systemverbünden wird ganz neue Bedeutung bekommen.

Welche Rolle spielt in diesem Zusammenhang die Unternehmenskultur, insbesondere in F&E-Bereichen?
Das ist eine interessante Frage. Wir haben eben über die Notwendigkeit gesprochen, zukünftig über die bisherigen Grenzen des eigenen Systems hinauszudenken. Dies macht vor allem eine Öffnung der bisher meist sehr „geschlossen“ agierenden Unternehmen notwendig. Ich muss mich stärker mit anderen auseinandersetzen: „Was passiert in meinem Systemumfeld? Mit wem kann ich interagieren?“. Unternehmen müssen eher in Kooperationen agieren, als im klassischen OEM-Lieferanten Verhältnis. Dies erfordert in den meisten Unternehmen ein starkes Umdenken. Das Kundenproblem muss stärker in den Mittelpunkt gestellt werden, als das eigene Produkt. Auf Grund der Dynamik im IoT, die auch durch das Zusammenspiel der vielen verschiedenen Player entsteht, muss in einer ganz anderen Geschwindigkeit entwickelt und Lösungen am Markt angeboten werden. Fehlschläge dürfen dabei nicht als Katastrophe angesehen werden, sondern als Chance etwas zu lernen und zu verbessern. Unternehmen sollten sich immer wieder mit „frischer DNA“ von außen anreichern, um sich weiterzuentwickeln. Die Fähigkeit dies zuzulassen und konstruktiv voranzutreiben, hängt in großen Maße von der Unternehmenskultur ab und der – wie wir es nennen – „vorherrschenden dominanten Logik“. Diese kann aber nicht „über Nacht“ verändert werden. Eine große Rolle spielt dabei die Unternehmensführung – nicht nur was sie sagt, sondern vor allem auch jeden Tag vorlebt. Wenn eine Veränderung nicht nur jeden Tag gepredigt, sondern auch authentisch danach gehandelt wird und auch die Gründe dafür überzeugend erläutert werden, dann ist die Chance groß, dass die Mannschaft folgt.

Dr. Armin Schulz sieht die zentrale Frage in der zukünftigen F&E Aufstellung darin, neue Services und Produkte vom Kunden her zu denken.

Dr. Armin Schulz sieht die zentrale Frage in der zukünftigen F&E Aufstellung darin, neue Services und Produkte vom Kunden her zu denken.

Wie müssen Unternehmen sich in der F&E aufstellen, um für die Herausforderungen vorbereitet zu sein?
Ich bin überzeugt, dass es essentiell sein wird, sich sehr viel stärker vom Kundenproblem her nach Customer Journeys und Use Cases aufzustellen, als vom Produkt bzw. System und seinen Subsystemen her. Was die Unternehmen in einigen Jahren liefern werden, sind nicht mehr die Systeme, sondern die Features, die die Kundenprobleme adressieren. Ich denke, das muss sich auch in der F&E Aufstellung niederschlagen. Dabei wird dem Design der Kundenschnittstelle und dem Thema User Experience, kurz UX, große Bedeutung zukommen. Um die Features und die UX richtig zu gestalten, sind Daten über das Kundenverhalten und die Nutzung der Features der Dreh- und Angelpunkt. Diese Daten müssen zentral zusammengeführt, intelligent ausgewertet und in der richtigen Art und Weise interpretiert werden. Auch hierfür sind die passende Aufstellung und vor allem der Aufbau der relevanten Kompetenzen notwendig. Die Interaktion mit dem Kunden muss die Form einer Co-Creation annehmen. Die Kundenschnittstelle darf nicht mehr einzig in einer Marketingeinheit beheimatet sein, sondern muss direkt und schnell sein. Die klassischen Lieferantenverhältnisse müssen sich zu partnerschaftlichen Kooperationsformen wandeln. Open Innovation im Netzwerk mit Partnern, Startups, Instituten, Lieferanten, Wettbewerbern und anderen muss zur Norm werden. Kernkompetenzen müssen überdacht werden: „Wo und wie will ich mich positionieren?“ Um „Dream-ons“ zu vermeiden muss man sich an den eigenen Stärken orientieren und diese im Kontext IoT zukunftsfähig interpretieren. Systemkompetenz für Netzwerke von Systemen muss aufgebaut werden. Die Organisation muss in Ökosystemen denken und die Fähigkeit zur Gestaltung von Ökosystemen entwickeln. Dabei darf der Fokus nicht nur auf der Hardware liegen, sondern vor allem auf den Features und Services, die auf Basis der Hardware möglich werden. Hierzu ist es auch wie schon erwähnt notwendig, sich von klassischen Geschäftsmodellen zu lösen und die Art und Weise wie zukünftig die Ertragsströme entstehen völlig neu zu denken. „Fail fast and early“ muss als Chance erkannt werden, etwas auszuprobieren, statt alles langfristig planen und durchdenken zu wollen. Damit will ich aber nicht sagen, dass die Silicon Valley Mentalität im IoT-Kotext überlegen ist. Ich bin überzeugt, dass es den richtigen Mix aus beiden Welt braucht: sozusagen Silicon Valley Mentalität gepaart mit „German Engineering“.

Wie wird die Schnittstelle zum Kunden zukünftig aussehen?
Sehr verkürzt würde ich sagen: einfach, direkt, transparent und immer verfügbar. Immer mehr neue Player besetzen durch extrem einfache, intuitive, und „sexy“ Lösungen die Kundenschnittstelle und setzen sich zwischen Kunden und alteingesessene Hersteller. Ein schönes Beispiel ist hier das Start-Up TADO. TADO hat das Kundenproblem der steigenden Energie- und Heizungskosten erkannt und verstanden: mit einer einfachen, intelligenten Thermostat-Lösung, die hilft Heizungskosten zu sparen und über eine App gesteuert wird, hat sich TADO etabliert und sich so zwischen die Heizungsanbieter und den Endkunden geschoben. Der Trend geht ganz klar zu einem kontinuierlichen Dialog mit dem Kunden, um durch die permanente, datenbasierte „Beobachtung“ seines Verhaltens besser zu verstehen, was er braucht oder zukünftig brauchen könnte sowie zu einer höherfrequenteren Lieferung von Mehrwert durch neue Features – nicht nur alle paar Jahre beim Launch eines neuen Produkts. Schlüsselfähigkeiten werden hierfür Kundenverständnis und Geschwindigkeit sein. Die Schnittstelle der Zukunft wird digital sein, weniger persönlicher, dafür aber personalisierter und individueller auf die einzelnen Bedürfnisse zugeschnitten.

Auf der 3DSE-Leitkonferenz in der BMW-Welt in München steht der Austausch auf einer hochkarätigen Ebene im Vordergrund.

Auf der 3DSE F&E Leitkonferenz in der BMW Welt in München steht der Austausch auf einer hochkarätigen Ebene im Vordergrund.

Welche kritischen Entscheidungen sind jetzt zu treffen, um handlungsfähig zu sein?
Die zentrale Frage ist aus meiner Einschätzung heraus: „Worüber will ich zukünftig Wert für meine Kunden generieren? Welche sind die Wertströme, die ich im IoT bedienen möchte?“. Ich muss Klarheit darüber bekommen, aus welchen Diensten meine Kunden im IoT zukünftig Wert ziehen werden und welche Rolle ich dabei haben möchte. Darauf aufbauend muss ich mich damit auseinandersetzen, welche Schlüsseltechnologien (z.B. Datenanalytik, künstliche Intelligenz, over-the-air-updates, Kryptographie, etc.) und Fähigkeiten (z.B. Gestaltung von Geschäftsmodellen, UX Design, agile feature Entwicklung) ich als Organisation brauche, um diese zukünftige Positionierung zu bedienen. Kann ich das alleine oder brauche ich dafür Partner? Dieser strategischen Stoßrichtung sollte man dann konsequent folgen und Dinge ausprobieren, lernen und basierend auf den Learnings die Richtung korrigieren. In gewisser Weise muss eine Art Transitionsszenario hin zu einer IoT-orientierten Organisation aufgebaut werden. Da im IoT aber vieles nicht vorhersagbar ist, muss man sich auch zwingend Optionen rechts und links vom dominanten strategischen Pfad offenhalten.

Welche Erkenntnisse können Teilnehmer Ihrer F&E Leitkonferenz in diesem Zusammenhang erwarten?
Ich glaube besonders interessant ist mit Sicherheit das Branchenspektrum, das vertreten sein wird. Dies ermöglicht einen guten Überblick, an welchen Lösungen die unterschiedlichen Firmen arbeiten und Transparenz darüber, mit welchen Ansätzen die oft ähnlichen Herausforderungen angegangen und ggf. bereits gelöst wurden. Es sind Firmen vertreten, die in ihrem Bereich als führend anzusehen sind (z.B. Bosch, BMW, Intel, Infineon, John Deere, BSH, Continental, Airbus), sodass ein Austausch mit den Besten möglich wird. Ohne zu übertreiben denke ich, dass Sie derartig wertvolle Insights und intensiven Kontakt mit gleichgesinnten Top F&E Führungskräften aus den unterschiedlichen High-Tech Industrien die alle vor sehr, sehr ähnlichen Herausforderungen stehen, in so verdichteter Form nirgendwo anders bekommen.

Weitere Informationen unter:
www.3dse.de
www.fue-leitkonferenz.de

Integrierte Buchhaltung und Zahlungsabwicklung für Online-Shops

Integrierte Buchhaltung und Zahlungsabwicklung für Online-Shops – Arvato Financial Solutions kooperiert mit Concardis

Pressemitteilung: Die standardisierte Buchhaltungslösung Aqount von Arvato Financial Solutions ermöglicht Händlern durch die Zusammenarbeit mit Concardis eine komplette Übernahme aller Finanzprozesse.

Das Modul ist ab sofort auch für alle Kunden von Concardis verfügbar, die die Payengine des Eschborner Full-Service Payment-Anbieters nutzen.
Der weltweit tätige Finanzdienstleister Arvato Financial Solutions hat dazu eine Kooperation mit Concardis geschlossen. Händler, die für ihre bargeldlosen Bezahlprozesse im E- und M-Commerce die Multichannel- Plattform von Concardis nutzen, verfügen damit über eine ideale Lösung, wenn sie ihre Buchhaltungsprozesse vom Debitorenmanagement bis hin zum Inkasso auslagern möchten.

Concardis übernimmt in diesem Fall Zahlungsautorisierung, -abwicklung und -einzug. Über eine neue Schnittstelle werden die Transaktions- und Rechnungsdaten direkt vom Online-Shop in die Buchhaltungs-Plattform von Arvato übergeben. Manuelle Buchungsabgleiche entfallen. Bei Bedarf übernimmt Arvato das nachgelagerte Mahnwesen und das Inkasso.

Damit verringern Online-Shops ihren Verwaltungsaufwand und sparen Zeit. Das ist besonders hilfreich im internationalen Einsatz, wo neben unterschiedlichen Währungen auch noch andere Zahlarten und Länderspezifika ins Spiel kommen.

„Unser Ziel ist es, Händlern die Buchhaltung zu vereinfachen, durch die einfache Anbindung von Zahlarten ihre Conversion zu erhöhen und sie bei der Internationalisierung zu unterstützen. Aqount bietet die richtige Lösung für Händler, um alle finanziellen Abläufe im Hintergrund optimal und angepasst an ihr Design zu organisieren. Deshalb freuen wir uns, mit Concardis einen Partner gefunden zu haben, der diese Funktionalität mit seiner innovativen und weit verbreiteten Payment-Lösung kombiniert“, unterstreicht Florian Krämer, Director Operations im Bereich Accounting und Collection bei Arvato Financial Solutions.

„Payment ist dann gut, wenn es einfach ist. Über die neue Schnittstelle unserer Multichannel-Plattform Payengine zum Buchhaltungsdienst Aqount von Arvato Financial Solutions laufen jetzt auch nachgelagerte Prozesse komplett automatisiert. Das erleichtert insbesondere kleinen und mittelständischen Unternehmen die Arbeit. So können sie sich ganz auf ihr Kerngeschäft konzentrieren“, erläutert Christoph Jung, Vice President eCommerce Competence Center von Concardis.

Arvato Financial Solutions übernimmt in der Kooperation sämtliche Prozesse ab der Übergabe an die Buchhaltung – von der Reconciliation unterschiedlichster Zahlarten, über das Debitoren-, Bankkonten- und Cashflow-Management, Rückbuchungen im Fall von Zahlungseinsprüchen durch Kunden, die Retourenbearbeitung, Mahnwesen bis hin zum Inkasso.
Über regelmäßige Reportings sind alle Debitoren- und Inkassoinformationen bis hin zum Monatsabschluss jederzeit transparent verfügbar. Auch saisonale Schwankungen insbesondere im Weihnachtsgeschäft oder um den Black Friday sind aufgrund der Skalierbarkeit beider Plattformen kein Problem mehr. Durchgängig stehen Produkterlebnis und Service für den Kunden im Mittelpunkt – unabhängig ob B2B oder B2C, ob im deutschen oder im grenzüberschreitenden Geschäft.
Weitere Informationen unter finance.arvato.com/aqount-de

 

Pressekontakt:
Arvato Financial Solutions
Nicole Schieler
Rheinstraße 99
D-76532 Baden-Baden
presse.afs@arvato.com
Fon: + 49 (0)7221/5040-1130
Fax: + 49 (0)7221/5040-3055
finance.arvato.com

Next Level Digital Workplace

In einer aktuellen Studie hat das IT-Research- und Beratungsunternehmen Crisp Research im Auftrag von Samsung IT- und Business-Entscheider zu Work 4.0-Konzepten befragt. Im Zentrum der Studie stand die Frage, welche Auswirkungen die Digitalisierung des Arbeitsplatzes für Unternehmen, Mitarbeiter und die Wirtschaft in Zukunft hat. Die Ergebnisse der Studie zeigen: Die effiziente Digitalisierung der Geschäftsprozesse benötigt neben der technologischen Ausstattung auch einen Wandel in Organisation, Führung und Unternehmenskultur.

Unternehmen sind heute mit immer schnelleren technologischen Entwicklungszyklen und einem veränderten Grundverständnis von Arbeit und Wertschöpfung konfrontiert. Vor dem Hintergrund einer zunehmend offeneren und mobileren Wirtschaft werden zukünftig nur diejenigen Unternehmen langfristig erfolgreich sein, die schnell auf Veränderungen reagieren können. 20 Prozent der befragten Unternehmen in Deutschland haben diesen Trend frühzeitig erkannt und den Wechsel in eine moderne Organisationskultur bereits in weiten Teilen vollzogen. Die Mehrheit der Unternehmen (47 Prozent) befindet sich aktuell noch im Übergang zu einer agilen und interaktiven Unternehmenskultur. „Dabei ist es nicht allein damit getan, Mitarbeiter mit digitalen Technologien auszustatten. Nur intelligent vernetzt und richtig angewendet, bietet die Technologie letztendlich einen Mehrwert“, betont Studienleiter Maximilian Hille, Senior Analyst bei Crisp Research.

Technologie-Landschaft legt die Basis

Ohne eine angemessene technologische Architektur kann der digitale Arbeitsplatz nicht erfolgreich sein. Für die Neuausrichtung der mobilen Endgeräte, der Anwendungslandschaft und der Cloud-Infrastruktur erhöhen derzeit über 50 Prozent der Unternehmen ihre Budgets. Leistungsstarke mobile Endgeräte und die zugehörige Business Software sowie Collaboration Tools gehören ebenso dazu wie Backend-Services und Anwendungen für Management sowie Security.

60 Prozent der Befragten sind der Meinung, dass bestehende Technologien auch weiterhin einen essentiellen Unternehmenswert darstellen. Das klassische Telefon, das heute bereits durch Mobilgeräte und unzählige internetbasierte Kommunikationslösungen angegriffen wird, wird laut Studienergebnissen auch zukünftig mit 71 Prozent noch ein tragendes Element der Arbeitsplatzausstattung darstellen. Dennoch zeichnet sich vor allem der Siegeszug mobiler Endgeräte ab: das Smartphone gehört heute schon bei 71 Prozent der Unternehmen zum Standard und wird zukünftig mit 78 Prozent das Endgerät der Wahl sein. Beim Tablet sind sich 46 Prozent der Entscheider einig, dass es in Zukunft elementar für den digitalen Arbeitsplatz
sein wird.

Wenn es nach den befragten IT-Entscheidern geht, werden mobile Geräte den Kampf gegen den Desktop-PC gewinnen. Während heute der Desktop-PC und ein Notebook noch etwa gleichauf in der Nutzung sind (PC 77 Prozent, Notebook 74 Prozent), wird das Notebook für 72 Prozent der Befragten dank seiner Mobilität langfristig als High-Performance-Device überleben.

50 Prozent der Befragten sind der Meinung, dass der PC gerade für mobil arbeitende Mitarbeiter langfristig durch mobile Endgeräte, zum Beispiel auch Premium-Tablets, ersetzt werden wird.
Steigende Relevanz prognostiziert die Studie besonders für neue Gerätetypen, wie Augmented oder Mixed Reality-Brillen (mit einer Steigerung von 6 auf 13 Prozent), Wearables (7 auf 13 Prozent), digitale Whiteboards und Flipcharts (11 auf 16 Prozent) oder auch spezielle Video-Walls (9 auf 14 Prozent).

Datensicherheit als höchste Priorität

Die technologische Ausgestaltung und User Experience stehen bei der Ausgestaltung des Digital Workplace nicht selten im Spannungsverhältnis mit der notwendigen Datensicherheit. „Das Thema Datenschutz gehört zu unseren Kernthemen bei Samsung. Gerade im Hinblick auf die reformierte europäische Datenschutzgrundverordnung, die im Mai in Kraft tritt, ist es für uns
enorm wichtig, Unternehmen mit unseren Produkten bei der Umsetzung der neuen Richtlinien zu unterstützen“, erklärt Sascha Lekic, Director IM B2B bei Samsung Electronics. Auch unter den Befragten geben fast zwei Drittel der Entscheider an, dem Thema Datenschutz im Vergleich zur User Experience und Umsetzungsgeschwindigkeit den Vorrang einzuräumen.

Diese Auffassung schlägt sich auch in der budgetären Ausrichtung nieder: Ganze 64 Prozent der Unternehmen erhalten für neue Security-Software höhere Budgets, um dauerhafte Sicherheit ermöglichen zu können. Management- und Sicherheitsplattformen werden darüber hinaus zum zentralen Gestaltungsparameter des digitalen Arbeitsplatzes. „Die Balance zwischen umfassender Sicherheit und Datenschutz sowie einer gleichzeitig hohen User Experience gilt aktuell als eine der größten Herausforderungen in der digitalen Transformation von Unternehmen“, so Hille.

Kultur- und Organisationswandel als Voraussetzung

Ortsunabhängiges Arbeiten ist mittlerweile zu einem Synonym für New Work geworden. Aus diesem Grund beschäftigt sich die Mehrheit der Unternehmen aktiv mit diesem Thema. Nur neun Prozent der Entscheider geben an, dass ihr Unternehmen auch langfristig keine Home Office Lösungen anbieten wird. Der Trend geht dabei heute schon über das klassische Home
Office hinaus in Richtung freie Ortswahl. Coworking Spaces werden in Zukunft ebenso als Arbeitsplätze dienen können wie auch Cafés. Während es heute mit 24 Prozent eher ausgewählte Unternehmen sind, die diese Möglichkeiten einräumen, werden es zukünftig knapp 51 Prozent der Unternehmen sein, die den Ansatz des ortsunabhängigen Arbeitens
flächendeckend ausweiten.

Mit diesem Wandel geht auch eine Veränderung der Arbeitszeitstruktur einher. Geben heute noch fast zwei Drittel der Unternehmen (63 Prozent) an, im klassischen 9-to-5-Rhythmus zu arbeiten, werden in Zukunft nur etwa 39 Prozent der Unternehmen einen solchen Arbeitsrhythmus voraussetzen. Dagegen wird die Vertrauensarbeitszeit, die heute schon bei etwa 40 Prozent der Unternehmen gewährt wird, einen weiteren Aufschwung erhalten und bei über 52 Prozent der Unternehmen Anwendung finden.
Die flexible Gestaltung von Arbeitszeit geht unmittelbar einher mit einem höheren Maß an Eigenverantwortung der Mitarbeiter. Diese Art zu arbeiten kann nur mit flachen Hierarchien und genauen Vorgaben bzw. Befugnissen gelingen. Drei Viertel aller Unternehmen wollen zukünftig mit flachen Hierarchien und einer agilen Unternehmenskultur das eigene Geschäft vorantreiben.

„Entscheidungsträger haben in restrukturierten Organisationen viel mehr die Rolle eines Antreibers und Visionärs, der seine Mitarbeiter zur Mitgestaltung der neuen Kultur motiviert. Trainings und neue Aufgabenbereiche für die Mitarbeiter sind daher besonders wichtig, um die Berührungspunkte mit den neuen Technologien abwechslungsreich und die Adaption zügig zu gestalten“, erläutert Hille. Aktuell sehen 33 Prozent der befragten Entscheider Herausforderungen im Skill-Set der IT-Mitarbeiter. Insbesondere Schulungen rund um das
sensible Thema Datenschutz sehen 56 Prozent der Entscheider als zwingend notwendig.
„Unsere gemeinsame Studie bringt die Diskussion um den Digital Workplace auf eine sachliche und konstruktive Ebene. Zielvorgaben und Sicherheitsanforderungen müssen in keiner Weise im Wiederspruch zu Innovation und User Experience stehen“, erklärt Sascha Lekic, Director IM B2B bei Samsung Electronics. „Vielmehr geht es darum, dass Unternehmen sich technisch, organisatorisch und kulturell neu aufstellen müssen. Erst in der Kombination aus Organisation, Leadership & Kultur sowie der Technologie-Ausstattung können die spannenden Projekte realisiert und damit Geschäftsprozesse und -modelle digitalisiert und modernisiert werden.“

Weitere Informationen unter:
www.samsung.de
www.crisp-research.com

 

Bildquelle / Lizenz: Samsung

Neuer Ansatz zur schnellen Anpassung von Geschäftsprozessen

Krakau (PL), 16. Mai 2018 – Auf dem European Collaboration Summit (ECS) vom 28.-30. Mai 2018 in Mainz präsentiert WEBCON® seine innovative Vision einer vernetzten Zusammenarbeit auf der Basis zukunftssicherer Geschäftsanwendungen. Im Mittelpunkt steht dabei die Lösung WEBCON BPS (Business Process Suite), mit der bereits zahlreiche Organisationen ihre Geschäftsprozesse ohne Programmieraufwand automatisieren und standardisieren. Darüber hinaus bietet die Rapid Application Development (RAD)-Plattform ein komfortables Change Management digitaler Prozesse und Workflows im laufenden Betrieb.

Die in WEBCON BPS integrierte InstantChange-Technologie ermöglicht echte „No-Code“-Anwendungsentwicklung sowie eine jederzeit flexible Erweiterung SharePoint-basierter Applikationen und Prozesse für nahezu alle fachlichen Anforderungen im Unternehmen. Auch Legacy Collaboration-Anwendungen, etwa aus IBM Notes, können mit WEBCON BPS in eine SharePoint-Umgebung migriert werden.

Damit adressiert der Business Process Management Software-Spezialist den steigenden Bedarf von Unternehmen, digitale Innovationen mit immer kürzeren Entwicklungszyklen bereitzustellen sowie zeitnah auf die permanenten Veränderungen der digitalen Geschäftswelt reagieren zu können, um ihre Wettbewerbsfähigkeit zu festigen. Die Abbildung standardisierter, einfach anpassbarer Prozesse, Workflows und Formulare in WEBCON BPS ermöglicht Anwendern höhere Produktivität und bessere Zusammenarbeit. Gleichzeitig reduziert sie den Aufwand für Software-Implementierungsprojekte um rund 70%, da der klassische Rollout-Prozess entfällt.

In der SharePoint Community etabliert

Mit seiner fortschrittlichen BPM-Plattform und der eigenentwickelten InstantChange-Technologie gilt WEBCON in der internationalen SharePoint Community längst als Geheimfavorit unter den Business Process Workflow-Engines für Microsoft SharePoint und den bislang in diesem Bereich führenden Anbietern.

Nach ihrer Vorjahresteilnahme als Gold-Partner ist das Unternehmen 2018 erstmals Hauptpartner des ECS, der zu den weltweit größten Gipfeltreffen im Umfeld von SharePoint, Office365, Azure und anderen Microsoft Collaboration-Produkten gehört. 300 Experten aus 20 Ländern sowie rund 1.200 Delegierte aus IT und Management erörtern eine bessere Zusammenarbeit zwischen Business und IT, um dem rasanten Wandel der digitalen Geschäftswelt fundiert zu begegnen.

Zu den aktuellen Fragestellungen der SharePoint Community gehört auch die in Kürze in Kraft tretende Datenschutzgrundverordnung (DSGVO). An seinem Messestand stellt WEBCON umfangreiche neue „GDPR Compliance“ Funktionen vor, die WEBCON BPS-Anwendern die rasche Umsetzung und Einhaltung der DSGVO ermöglichen sollen. Das neue Funktions-Set bietet unter anderem eine lückenlose Identifikation sämtlicher Prozesse und Formularfelder, in denen personenbezogene Daten gespeichert sind sowie eine Spezifikation und Anonymisierung von Feldern mit sensiblen Daten.

Unzufriedenheit mit bestehenden Workflow Engines steigert Chancen für WEBCON DACH-Partner

Im polnischen Heimatmarkt zählt WEBCON bereits zu den führenden BPM Premium Software-Anbietern. Seit der Unternehmensgründung im Jahr 2006 steigt die Zahl internationaler Kunden großer und mittelständischer Unternehmen aller Branchen kontinuierlich an, darunter ADAMA, Bilfinger, MediaMarkt / Saturn, Mitsubishi Electric und Siemens.

Nun will das Unternehmen auch den deutschsprachigen Markt mit Hochdruck weiter erschließen. Bereits heute arbeitet der Anbieter in der DACH-Region eng mit erfahrenen Vertriebs- und Integrationspartnern im BPM-Umfeld zusammen. Dieses Netz soll kontinuierlich ausgebaut und unterstützt werden. Denn laut der „SharePoint Studie 2017 Spezial“ sind mehr als 85 % aller DACH-Anwender der Collaboration-Lösung bestenfalls mäßig zufrieden mit dem vorhandenen Angebot an Workflow-Engines im Markt.

WEBCON Chief Executive Officer Radosław Putek sieht darin eine große Chance für sein Unternehmen, auch im DACH-Markt erfolgreich zu sein: „WEBCON gehört die Zukunft der programmierfreien und jederzeit veränderbaren Anwendungsentwicklung“, erklärt Putek selbstbewusst. „Unser Ziel ist es, eine integrierte BPM Plattform mit hohem Anwendernutzen bereitzustellen, die unseren Kunden ermöglicht, sich optimal auf die Geschwindigkeit des digitalen Wandels einzustellen und das hohe Geschäftspotenzial bestmöglich auszuschöpfen.“

Auch Andreas Schmidt, CEO des WEBCON Partners VSB Solutions GmbH ist überzeugt: „Die zukunftsweisende Technologie der Plattform sowie die nachweislichen operativen und wirtschaftlichen Vorteile machen WEBCON sowohl für mittlere als auch große Unternehmen zu einer essenziellen Plattform für die Digitalisierung von Geschäftsprozessen.“

Weitere Informationen unter:
www.webcon.com

Bildquelle / Lizenz:

Wider das bequeme User Bashing

Wider das bequeme User Bashing: Mitarbeiter sind mit IT-Sicherheit überfordert

Die IT-Sicherheit lädt zu viel Verantwortung auf den Mitarbeitern ab. Günter Junk, CEO von Virtual Solution, ist der Auffassung, dass Sicherheitsexperten viel mehr auf die Usability von Lösungen achten müssen. Sich über die notorischen Unzulänglichkeiten der Nutzer zu mokieren, hält er für kontraproduktiv.

Der Mitarbeiter spielt in der IT-Sicherheit eine zentrale Rolle: Er darf nicht wahllos Links anklicken, muss sich starke Passwörter ausdenken und sich diese einprägen, er muss Phishing-Mails erkennen, darf sich nicht bei zweifelhaften WLAN-Hotspots anmelden und wenn er sich das Smartphone mit betrieblichen Daten stehlen lässt, gefährdet er möglicherweise den Bestand seines Unternehmens.

Kurz: Die End-User im Unternehmen sind ein Risikofaktor, und am besten wäre es, wenn nur ausgebildete Sicherheitsexperten für diesen Job zugelassen wären.

„Ein Mitarbeiter will seine Arbeit einfach möglichst schnell und komfortabel erledigen. Ob das dann immer sicherheitskonform ist, sei dahingestellt“, erklärt Günter Junk, CEO der Virtual Solution AG in München. „Aber darüber sollte sich nicht der Mitarbeiter Gedanken machen, sondern das Unternehmen.“

„Sicherheitsexperten müssen viel mehr auf die Usability von Lösungen achten“, so Günter Junk, CEO der Virtual Solution AG.

Tatsächlich sind Mitarbeiter mit ihrer Rolle in der IT-Sicherheit mittlerweile heillos überfordert, erst recht mit der zunehmenden Verbreitung mobiler Systeme, die häufig in unsicheren Umgebungen betrieben werden. Dabei stehen den Anwendern Cyber-Kriminelle gegenüber, die über fast grenzenlose Ressourcen, großes Know-how und mittlerweile über jahrelange Erfahrung verfügen.

„Wenn dem Mitarbeiter die Verantwortung für die IT-Sicherheit zugeschoben wird, stimmt das Gleichgewicht nicht mehr“, so Junk weiter. „Vielmehr müssen Unternehmen ihren Mitarbeiter Tools zur Verfügung stellen, mit denen sie komfortabel arbeiten können und die trotzdem sicher und Datenschutz-konform sind. Davon sind wir allerdings noch weit entfernt.“

Mitarbeiter brauchen für ihre Arbeit Werkzeuge, mit denen sie unter normalen Umständen nichts falsch machen können. Ansonsten darf man ihnen nach Auffassung von Junk auch keinen Vorwurf machen, wenn etwas schief geht. Unternehmen fokussieren bei IT-Ent­schei­dungen meistens auf Funktionalitäten und Kosten, während die Bedürfnisse ihrer End-Anwender zu kurz kommen. Auch vermeintlich sichere Lösungen bringen letztlich keine Sicherheit, wenn ihre Usability so schlecht ist, dass die User, wenn sie ihre Arbeit effektiv erledigen wollen, versuchen, sie zu umgehen und beispielsweise Passwörter auf Zetteln notieren.

„Gerade Sicherheitsexperten schimpfen gerne über das ‚Risiko Mensch‘ und malen die Unzulänglichkeiten der User in allen Farben aus“, meint Junk. „Dieses User Bashing ist sehr bequem und erspart es, sich über Lösungen Gedanken zu machen, die dem Mitarbeiter die Verantwortung endlich wirksam abnehmen. Sicherheit und Usability müssen vereint werden. Auch das Arbeiten mit sicheren Tools muss Spaß machen und komfortabel sein, sonst bleibt am Ende auch die Sicherheit auf der Strecke.“

 

 

Über Virtual Solution

Virtual Solution ist ein international agierender Sicherheitsspezialist mit Sitz in München und Berlin. Das Unternehmen entwickelt und vertreibt die Applikation SecurePIM und das Framework SERA für iOS- und Android-Geräte.

Beide Lösungen sorgen für eine sichere und benutzerfreundliche mobile Kommunikation in Behörden und Unternehmen bis zu einer Geheimhaltungsstufe „VERSCHLUSSSACHE – NUR FÜR DEN DIENSTGEBRAUCH“, kurz „VS – NfD“.

Virtual Solution wurde 1996 gegründet und beschäftigt rund 80 Mitarbeiter. Alle Produkte des Unternehmens tragen das Gütesiegel „IT-Security made in Germany“ des TeleTrust-IT-Bundesverbandes IT-Sicherheit e.V.

 

Weitere Informationen unter www.virtual-solution.com.

 

 

 

Kontakt

Virtual Solution AG
Regina Hoffmann
Blutenburgstraße18
80636 München
Tel.: 089/309057-125
regina.hoffmann@virtual-solution.com

PR-COM GmbH
Sandra Hofer
Sendlinger-Tor-Platz 6
80336 München
Tel.: 089/59997-800
sandra.hofer@pr-com.de

3D-Drucker-Police

Gastbeitrag

Rundum-Absicherung für eine innovative Fertigungstechnologie

 

1988 kam der erste 3D-Drucker auf den Markt. Seitdem hat sich sehr viel getan. Zu Beginn nur für die Herstellung von Prototypen oder Modellen eingesetzt, haben es die 3D-Drucker mittlerweile in vielen industriellen Bereichen in die Serienfertigung geschafft.

Ganz kann der 3D-Druck die etablierten „traditionellen“ Fertigungsmethoden nicht ersetzen, nichtsdestotrotz nimmt er einen wachsenden Part in der industriellen Fertigung ein.

Mit hoher Geschwindigkeit können nicht nur einfache Objekte, sondern auch komplexe Werkstücke hergestellt werden. Prozesse, die vorher Tage gedauert haben, nehmen jetzt nur noch einen Bruchteil davon in Anspruch. Ein Grund für die Schnelligkeit ist natürlich die Änderung des Entwicklungsprozesses, es werden z.B. keine Formen oder Werkzeuge mehr benötigt. Alleine der verkürzte Prozess sorgt schon für eine Verringerung der Produktions- und Entwicklungskosten.

Weiterhin verursachen bereits kleine Veränderungen einer Form im Gussverfahren erhebliche Mehrkosten. Beim 3-D-Druck können diese Veränderungen schnell und kosteneffizient umgesetzt werden.

Auch das Thema „Nachhaltigkeit“ ist hier nicht ganz unbedeutend. Das verwendete Material wird komplett für das zu fertigende Teil eingesetzt, übrig gebliebenes Material kann für das nächste Druckstück wiederverwendet werden, damit fällt wesentlich weniger Abfall gegenüber den traditionellen Herstellungsverfahren an.

Vormarsch“ der 3-D-Drucker

Mit dem „Vormarsch“ der 3-D-Drucker haben wir uns als Versicherung beschäftigt.

Die Basler Versicherungen sind einer der Top-10-Versicherer im Bereich der Technischen Versicherungen in Deutschland. Als erster Versicherer auf dem deutschen Markt bieten wir mit der 3D-Drucker-Police jetzt eine Rundum-Absicherung für diese innovative Fertigungstechnologie an.

Die spezielle 3D-Drucker Versicherung setzt sich aus einer Elektronikversicherung inklusive Sondervereinbarungen zusammen. Dies hat – im Vergleich zu einer reinen Maschinenversicherung – zahlreiche Vorteile.

Das Produkt beinhaltet eine Neuwertentschädigung sowie die Mitversicherung aller Sachgefahren (Feuer, Leitungswasser, Einbruchdiebstahl, Sturm) – was über eine Maschinenversicherung so nicht mit abgedeckt wäre.

Außerdem sind schadhafte Druckerzeugnisse mitversichert, d.h. der Teil des Druckauftrages, der durch die Beschädigung eines 3D-Druckers oder aufgrund eines Stromausfalls nicht korrekt gefertigt werden konnte und daher unbrauchbar wurde.

Auch beschädigtes Rohmaterial ist abgesichert: Mitversichert sind hier Rohmaterialien und Werkzeuge die infolge eines ersatzpflichtigen Schadens oder eines Stromausfalls nicht mehr verwertbar oder zu gebrauchen sind.

Mehrkosten, die im Schadenfall aufgewendet werden müssten, um eine Betriebsunterbrechung zu vermeiden, wie Umprogrammierung und Umrüstung oder Inanspruchnahme von Lohn- und Dienstleistungen sind ebenfalls eingeschlossen.

Generell ist der Versicherungsschutz für alle Fertigungsunternehmen interessant, die 3-D-Druck verwenden. Insbesondere ist dies in den Branchen des Metall- und kunststoffverarbeitenden Gewerbes, der Verpackungsindustrie, der Nahrungsmittelindustrie aber auch in Ingenieurbüros sowie der Medizin- und Zahntechnik der Fall.

 

Weitere Informationen unter:
Basler Versicherungen

 

 

Unsere Autorin Meike Horst

Meike Horst ist Abteilungsleiterin Technische Versicherungen / Engineering Lines
Seit über 10 Jahren ist Meike Horst im Bereich der Technischen Versicherungen tätig. Seit dem 01.01.2018 verantwortliche Abteilungsleiterin für die Technischen Versicherungen der Basler Versicherungen mit 12 Mitarbeitern.

 

Cybersicherheit neu gedacht – Brand Protection schützt Kunden und Mitarbeiter

Dies ist ein Gastbeitrag von Werner Thalmeier, Senior Director Systems Engineering EMEA bei Proofpoint

Das Internet und insbesondere soziale Netzwerke eröffnen uns heutzutage Möglichkeiten, die noch bis vor Kurzem undenkbar erschienen. Beides verändert nicht nur unsere Art der Kommunikation, sondern hat auch einen Einfluss darauf, wie wir Produkte erwerben und auch, wie wir mit Reklamationen am jeweiligen Produkt oder der erbrachten Leistung umgehen. Dies bedeutet nicht nur, dass in Unternehmen ein Umdenken in Bezug auf Absatzwege, Vermarktung und Kundensupport stattfinden musste, sondern dass soziale Medien beziehungsweise Kriminelle, die sich dieser Medien bedienen, Firmen und ihre Kunden schädigen können.

Gefahren für Kunden und Mitarbeiter

Immer mehr Unternehmen verwenden ihre Social-Media-Auftritte nicht mehr nur als Kanäle, um ihre Werbebotschaft mit potentiellen Kunden zu teilen. Firmen treten durch soziale Medien zunehmend mit ihren Kunden in direktem Kontakt und tauschen sich mit Hilfe dieser Plattformen aus. Sei es im Falle von Lob oder aber der Reklamation eines Kunden. Genau dieses Verhalten machen sich Cyberkriminelle immer häufiger zunutze. Beim so genannten „Angler-Phishing“ legen sie gefälschte Social-Media-Profile an, die denen der tatsächlichen Marke zum Verwechseln ähnlich sehen. In vielen Fällen lassen sich solche Fake-Profile nur an Kleinigkeiten erkennen. Mal ist es ein weggelassener Buchstabe oder ein der Optik nach ähnliches Symbol wie „BEISPIEL“ und „ßEISPIEL“. Im Zeitalter von immer dichter getakteter Kommunikation wird ein derartiger Betrugsversuch gerne übersehen, insbesondere, wenn nicht wie im Falle von E-Mails, die Absender-Adresse als primäre Verifikation genutzt wird, sondern ein Profilbild – mit zum Teil erheblichen Folgen für Betroffene.

Die Erstellung eines Fake-Profils ist jedoch nur der erste Schritt. Der eigentliche Zweck solch gefälschter Social-Media-Profile ist in vielen Fällen, Support-Anfragen oder Reklamationen argloser Kunden abzugreifen, um an vertrauliche Daten zu gelangen. Zu diesem Zweck geben Cyberkriminelle beispielsweise vor, die Rückabwicklung eines Kaufs in die Wege zu leiten und bitten dazu ihre potentiellen Opfer um ihre Bankverbindung. Es kommt auch vor, dass Zugangsdaten zu Online-Portalen der betreffenden Firma erfragt werden, um über diesen Umweg an weitere vertrauliche Daten zu gelangen.

Social-Media-Nachricht vom Chef

Im Grunde handelt es sich bei dieser Vorgehensweise um klassisches Phishing, jedoch in einem neuen (Social-Media-) Gewand. Analog zu bereits genutzten Betrugsmethoden via E-Mail nutzen Internetbetrüger gefälschte Profile auf sozialen Netzwerken aber auch für eine weitere perfide Angriffsart, das sogenannte Business-Email-Compromise (BEC): Beim BEC oder CEO-Betrug geben sich Online-Kriminelle als Vorgesetzte, oftmals CEOs oder CFOs, aus und versuchen auf diese Weise Mitarbeiter aus den Finanzabteilungen dazu zu bewegen, eine Banküberweisung zu tätigen. Selbstverständlich auf ein von den Betrügern verwaltetes Konto, von dem aus das ergaunerte Geld oftmals in Steueroasen verschoben wird und somit unwiederbringlich verloren ist. Während diese Vorgehensweise durch gefälschte E-Mails seit längerem bekannt ist und Mitarbeiter in Finanzabteilungen im besten Fall regelmäßig für derartige Betrugsversuche sensibilisiert werden, ist die Vorsicht beim Umgang mit sozialen Medien oftmals weit weniger stark ausgeprägt. Genau das machen sich Kriminelle zunutze.
Darüber hinaus sind besonders große Firmen und bekannte Marken von einer weiteren bei Cyberkriminellen sehr beliebten Vorgehensweise bedroht. Immer häufiger beobachten wir die betrügerische Registrierung von Internet-Domains, deren Domainnamen einen Bezug zu bekannten Firmen oder Marken aufweisen. Ähnlich der gefälschten Social-Media-Profile wandeln Online-Kriminelle die Schreibweise lediglich um Nuancen ab, um so den Eindruck zu erwecken, es handle sich um eine offizielle Domain. Dabei kann die Anzahl von betrügerischen Domains die Anzahl der tatsächlich mit dem Unternehmen in Verbindung stehenden Domains um den Faktor 20 übersteigen. Diese Beobachtung wird auch durch die neueste Studie „The Human Factor 2018“ bestätigt.

Mitunter werden aber nicht nur Domains in Verbindung mit großen Firmen oder bekannten Marken registriert. Auch Betreiber von illegalen Streaming-Portalen wie etwa Kino.to sind von diesem Phänomen betroffen. Hier spielt besonders das gesteigerte Interesse an Krypto-Währungen und einem damit einhergehenden Kursanstieg des digitalen Geldes eine große Rolle. Für Cyberkriminelle wird das Mining, also das Erzeugen von Krypto-Geld zusehends lukrativer. Speziell entwickelter Schadcode erlaubt es Kriminellen das Mining direkt im Browser der Opfer auszuführen, solange diese auf einer präparierten Webseite verweilen. Daher werden oftmals raubkopierte Inhalte angeboten, vorwiegend Video-Streams, damit mögliche Opfer diese Webseite besonders lange im Browser geöffnet lassen.

Cyberkriminelle gehen mit der Zeit

Die Erfahrungen der letzten Jahre zeigen, dass Betrüger und sonstige Kriminelle sich insbesondere online sehr schnell an neueste Trends und Entwicklungen anpassen. Viele dieser neuen Bedrohungen zielen auf den Nutzer als Schwachstelle ab, anstatt mit viel Aufwand und vor allem technischem Sachverstand neue Sicherheitslücken zu finden. Was liegt da für Kriminelle näher als die Gutgläubigkeit von Menschen auszunutzen?
Aus diesem Grund sind neben softwarebasierten Schutzmechanismen Mitarbeiterschulungen und regelmäßige Informationen über die neuesten Cyberbedrohungen heutzutage für Unternehmen von elementarer Bedeutung, wenn es darum geht, Kunden und Mitarbeiter vor Kriminellen zu schützen. Damit werden nicht nur finanzielle Risiken für die Organisation abgewendet, sondern auch ein möglicherweise drohender Reputationsverlust.

Weitere Informationen unter:
www.proofpoint.de