Paradigmenwechsel an der Kasse

von Ingo Limburg, Leiter Mar­keting & PR bei Euro Kartensysteme

Wer schon einmal in London an einer Bushaltestelle in der Schlange stand, kennt die außergewöhnliche Disziplin der Briten beim Warten. Ganz im Gegensatz zu uns Deutschen, die an der Supermarktkasse schnell nervös und ungeduldig werden.

Die Gewohnheiten sind meist über Generationen hinweg verfestigt: Man verhält sich, wie von klein auf gewohnt. Die Deutschen sind etwa seit jeher ein Volk der Barzahler. Insbesondere bei Kleinstbeträgen ist der Griff zu Münzen und Scheinen quasi die Regel. Umso erstaunlicher ist eine Entwicklung, die sich zuletzt beim Bezahlen feststellen lässt: 2017 wurde laut EHI Retail Institute erstmalig im stationären Einzelhandel genauso viel Umsatz elektronisch wie mit Bargeld erzielt. Und diese Trendwende scheint sich zwar langsam, aber nachhaltig fortzusetzen. Die größten Steigerungswerte im unbaren Bezahlverkehr erzielt dabei die girocard, die seit 2008 mit durchschnittlich 7,7 Prozent jährlicher Transaktionssteigerung und mittlerweile über 3 Milliarden Transaktionen pro Jahr das mit Abstand beliebteste Kartenzahlungsmittel der deutschen Verbraucher ist.

Aber woher kommt dieser Wandel? Ein entscheidender Grund ist sicherlich die stetig wachsende Akzeptanzdichte im Handel. Aufgrund gesunkener Transaktionsgebühren hat sich der finanzielle Vorteil gegenüber dem sehr teuren und zeitaufwendigen Bargeldhandling nochmals vergrößert. Obendrein wird auch das Bezahlen an der Kasse durch innovative Neuerungen, wie girocard kontaktlos, deutlich schneller, so eine Geschwindigkeitsmessung der GfK. Demnach dauert die Bezahlung mit girocard kontaktlos ohne PIN-Eingabe, wie sie i. d. R. bis 25 Euro funktioniert, im Schnitt rund 11 Sekunden. Mehr als doppelt so lang dauert die Bezahlung mit Bargeld (24 Sekunden) und herkömmliche girocard-Zahlung mit Stecken der Karte (23 Sekunden). Das kann die Durchlaufzeit an der Kasse und damit lästiges Warten für Kunden deutlich reduzieren.

Ingo Limburg kündigt das kontaklose Bezahlen per App über ein NFC-fähiges Smartphone an.

Ingo Limburg kündigt das kontaklose Bezahlen per App über ein NFC-fähiges Smartphone an.

Doch es ist nicht die Schnelligkeit allein, die Kunden dazu bringt, gelernte Gewohnheiten beim Bezahlen über Bord zu werfen. Die girocard kontaktlos ist bequem, einfach und intuitiv zu benutzen. Dieses Gesamtpaket an Nutzerkomfort wird getragen vom Vertrauen, das die Kunden in ihre girocard haben: Mit 90 Prozent hat die überwältigende Mehrheit der Kunden generell großes oder sogar sehr großes Vertrauen in die Bezahlverfahren der Banken und Sparkassen, wie z. B. das girocard-System. Das belegt eine repräsentative Umfrage der GfK von Januar 2018. Im Auftrag der Euro Kartensysteme hatten die Marktforscher 1 207 Personen zwischen 16 und 69 Jahren befragt. Entsprechend nehmen die Kunden das kontaktlose Bezahlen mit ihrer Bank- oder Sparkassenkarte so schnell an wie keine andere Funktion der girocard je zuvor. Ohne große Werbemaßnahmen waren so im April bereits je rund zehn Prozent aller girocard-Transak­tionen von Sparkassen und Volksbanken Raiffeisenbanken kontaktlos.

Wie gut das kontaktlose Bezahlen angenommen wird, zeigen auf Seiten des Handels eindrucksvoll die Zahlen von Edeka Hessenring, einem Akzeptanzpartner der ersten Stunde, wo kontaktloses Bezahlen mit girocards bereits im Rahmen der Erprobung in der girocard-City Kassel möglich war. Dort wurde bereits im Februar 2018 rund jede vierte girocard-Transaktion kontaktlos durchgeführt. In einigen Märkten liegt der Kontaktlos-Anteil gemessen an allen girocard-Transaktionen sogar bereits bei über 40 Prozent.
Noch mehr Wahlfreiheit beim Bezahlen haben ab voraussichtlich Mitte 2018 die Besitzer von NFC-fähigen Android-Smartphones. Ihnen bieten nach aktuellem Stand die meisten Sparkassen, Volksbanken und Raiffeisenbanken sowie die National-Bank eine digitale girocard, mit der sie einfach durch Auflegen des Smartphones bezahlen können. Das funktioniert automatisch an allen girocard-kontaktlos-Akzeptanzstellen – der Handel ist also bereit.

Ob wir dank kontaktlosem Bezahlen mit Karte und Smartphone mit den Briten bald die Freude am Schlangestehen teilen, bleibt abzuwarten. Mehr Komfort und schnellere Abwicklung beim Bezahlen sind uns aber gewiss.

Weitere Informationen unter:
www.girocard.eu

Bluetooth 5

Speziell für das Internet of Things (IoT) bringt der aktuelle im Dezember 2016 verabschiedete Bluetooth-Standard (Bluetooth 5) eine Reihe von Verbesserung:

  1. Vierfache Reichweite

Durch die Vervierfachung der Reichweite steigt diese nun auf bis zu 400 Meter im Innenbereich. Dadurch wird die Technologie insbesondere für Smart Home Produkte interessant, deckt Sie doch nun das ganze Haus ab. Dadurch hat Bluetooth das Potential mit dem WiFi-Standard zu konkurrieren und könnte diesen in vielen Fällen ablösen. Im Freien konnten auch schon Reichweiten von bis zu 750 Metern nachgewiesen werden.

  1. Verdopplung der Datenübertragungsgeschwindigkeit

Mit Bluetooth 5 liegt die Übertragungsgeschwindigkeit auf 2Mbps. Da im IoT- und Smart-Home-Bereich häufig gar keine umfangreichen Datenmengen ausgetauscht werden, sondern lediglich überschaubare Sensordaten und Informationen zur Steuerung, ist der Nutzen zunächst nicht offenkundig. Aber: Durch die schnellere Übertragung muss das Radio nur halb so lang aktiv werden, wodurch batteriebetriebene Systeme doppelt so lang halten.

Anwender von Wearables können sich darüber hinaus über schnellere Synchronisierungen freuen sowie über das performante Übertragen von Firmware-Updates.

  1. Verdreifachung der Broadcasting-Kapazität

Mit Bluetooth 5 können Advertising Pakete nun bis zu 255 Byte an dynamischen Informationen transportieren. Die erhöhte Kapazität bildet die Grundlage für Location Based Services und Smart- Sensor-Anwendungen. Erst dadurch wird das sogenannte „connectionless IoT“ ermöglicht. So lassen sich Beispielsweise Informationen über Lagerbestände und komplexe Sensordaten austauschen, und zwar ohne dass herstellerspezifische Apps benötigt werden oder Smart Devices manuell gekoppelt werden müssen.

B2B-Beschaffung: Grüner Strom

Die TREND-REPORT-Redaktion im Gespräch mit Clemens Graf von Wedel über nachhaltige Trends im Energieeinkauf

Herr von Wedel, welchen Paradigmenwechsel erleben Sie gerade im Kontext des Energieeinkaufs?
Im gewerblichen Bereich steigt die Nachfrage nach elektrischer Energie aus regenerativen Energiequellen. Das hängt u. a. damit zusammen, dass Unternehmen die positive Außenwirkung erkennen, die der Bezug von nachhaltiger Energie mit sich bringt und diesen aktiv in ihrem Marketing einsetzen. Einige Unternehmen können durch den Bezug von nachhaltiger Energie ihre CO2-Bilanz verbessern und nutzen dies ebenfalls für ihre Außendarstellung. Darüber hinaus sehen wir einen star­ken Anstieg der Terminmarktpreise für die kommenden Jahre. Der Preisanstieg ist dem Ausstieg aus der Atomkraft und dem sich abzeichnenden Ende des Einsatzes von Kohle geschuldet.

Wie sind Sie darauf vorbereitet, auf Lieferanten und Abnehmerseite?
Die enPortal-Plattform steht grundsätzlich allen Lieferanten offen. Neue Anbieter, insbesondere aus dem regenerativen Bereich, sind herzlich willkommen. Die Plattform bietet für sie eine große Chance, einfach und mit geringem Aufwand, sich 2 500 potenziellen gewerblichen Abnehmern zu präsentieren und einige davon als Kunden zu gewinnen. Unsere Kunden können schon jetzt aus einer Vielzahl von regenerativen Stromanbietern aus­wählen. Im Ausschreibungsprozess haben wir für unsere Kunden die gängigen Zertifikate für Ökostrom gelistet, auf die in einer Ausschreibung zurückgegriffen werden kann.

Welche Beweggrün­de haben die Abnehmer für grüne Energie?
In der Außendarstellung spielt die Her­kunft der verwendeten Energie eine zunehmend größere Rolle. Das gilt gleichermaßen für Dienstleister wie für produzierende Unternehmen. Bei öffentlich-rechtlichen Einrichtungen, insbesondere bei den Kommunen, gibt es entsprechende Beschlüsse der kom­munalen Parlamente für eine Öko­strom­versorgung von Gemeinden und öffentlichen Einrichtungen. In der Industrie spielt die Reduktion von CO2-Emissionen ebenfalls eine immer stärkere Rolle. Sollte sich der Preis für Öko­strom, z. B. aus Anlagen, die keine EEG-Förderung mehr erhalten und zu Marktpreisen anbieten müssen, weiter in Richtung Preisgleichheit mit konventionellem Strom bewegen, wird das die Nachfrage nach grünem Strom weiter beflügeln.

Wie wird sich der Energieeinkauf in naher Zukunft verändern?
Der Energieeinkauf wird sich zukünftig noch stärker an der Preisentwicklung der Energiebörsen orientieren. In Abhän­gigkeit von der weiteren Entwicklung und vom Einsatz von Smart-Metern stehen dem Einkäufer von elektrischer Energie komplexere Beschaffungsmöglichkeiten zur Verfügung. Hier bie­ten wir schon heute alle verfügbaren Möglichkeiten unseren Kunden an und sehen uns führend in der weiteren Entwicklung. Durch die zunehmende Vernetzung über digitale Plattformen wird die Geschwindigkeit der Preisbildung rasant zunehmen. Wir gehen davon aus, dass in wenigen Jahren ein Real Pricing, also die ständige Aktualisierung von Preisen zahlreicher Anbieter für Kunden, Realität wird.

Weitere Informationen unter:
www.enportal.de

Schneller Wandel im Payment

Die TREND-REPORT-Redaktion sprach mit Christian Schollmeyer vom Deutschen Sparkassen- und Giroverband, dem aktuellen Federführer der Deutschen Kreditwirtschaft, über kontaktlose Bezahlverfahren.

Wie wirkt sich die Digitalisierung im Payment-Bereich aus?
Unser aller Alltag wird digitaler und mobiler: Bereits heute haben laut GfK 67 Prozent ihr Smartphone immer dabei. Was läge da näher, als auch das Bezahlen damit zu ermöglichen. Die Deutsche Kreditwirtschaft greift den positiven Trend der kontaktlosen Kartenzahlung auf und zündet mit der digitalen girocard die nächste Stufe. Schon heute können sich 25 Prozent der Smartphone-Besitzer vorstellen, in zehn Jahren nur noch per Smartphone zu bezahlen. Die digitale girocard glänzt als Zusatzangebot neben den physischen Karten. Sie vereint die Vorteile von Karte und Smartphone und eröffnet damit neue Einsatzfelder.

Was sagen Kunden zu den neuen Bezahlmöglichkeiten?
Laut GfK haben 90 Prozent der Kunden großes oder sehr großes Vertrauen in die Bezahlverfahren der Banken und Sparkassen. Das zeigt sich auch in der Nutzung der Kontaktlos-Technologie, die Kunden so schnell und intuitiv annehmen, wie nie zuvor eine neue Funktion der girocard. Je rund 10 Prozent der girocard-Zahlungen waren bei Sparkassen und Volksbanken Raiffeisenbanken im April bereits kontaktlos. Dieser Paradigmenwechsel von kontaktbehaftet zu kontaktlos wird sich fortsetzen – und zwar dank beider Karten, egal ob physisch oder digital.

Was ist mit der Sicherheit?
Die Sicherheit unserer Bezahlverfahren ist die Basis, die Vertrauen schafft und auf die wir als Deutsche Kreditwirtschaft in der Kundenbeziehung aufbauen. Die Sicherheitsarchitektur des girocard-Systems ist auch beim kontaktlosen und digitalen Bezahlen verlässlicher Kern der Infrastruktur – die EMV-Technologie bleibt Maßstab für ein sicheres Angebot.

Alle Risiken im Griff?

Über neue Trends beim Thema „Enter­prise Risk Management“ (ERM) sprach die TREND-REPORT-Redaktion mit Günther Angerbauer und Markus Müller, Geschäftsführer calpana business consulting, dem Hersteller von Crisam.

Ob Überschuldung oder fehlende liquide Finanzmittel, im heutigen Geschäftsalltag ist Risiko zentraler Bestandteil aller Tätigkeiten eines Unternehmens. Es sind Chancen und Risiken, die die Entwicklung der Unternehmen mitbeeinflussen, was nahezu täglich im internationalen Wirtschaftsleben zu beobachten ist. Doch wie können Unternehmen in Zeiten der Digitalisierung solchen Gefahren und Chancen begegnen? Diese und weitere Fragen konnten wir mit Günther Angerbauer und Markus Müller im Interview klären. Auf unsere erste Frage hin, welche Trends denn momentan ausgemacht werden könnten im Enterprise Risk Management, betonte Günther Angerbauer: „Aus unserer Erfahrung gehen immer mehr Unternehmen weg vom Silodenken und wollen die unterschiedlichen ‚Risk & Compliance‘-Themen in einer Gesamt­lösung behandelt sehen. Das Bewusst­sein steigt, dass quantitatives Risikomanagement einen großen Mehrwert für die Entscheidungsfindung der Ge­schäftsleitung in Bezug auf die Aussa­gekraft der Ergebnisse leistet.“ Anger­bauer fährt fort: „Nicht zuletzt gewinnen automatisierte Risi­ko­­identifi­ka­tions­prozesse immer mehr an Bedeutung, d. h., dass stärker zusätzliche Informationsquellen neben den Expertenschätzungen aus den Fachbereichen einbezogen werden.“

Doch Risiken müssen auch im Kontext einer Bestandsgefährdung des Unter­nehmens bewertet und entsprechend gesteuert werden. Eine zeitgemäße ERM-Lösung muss heute auf verschie­denste Szenarien reagieren können. „Sie muss frei definierbare Modelle und Aggregationslogiken unterstützen, muss an die Unter­nehmensplanung anbindbar sein und effiziente Workflows zur Beteiligung der Risikoverantwortlichen ermöglichen. Darüber hinaus muss sie über flexible Standardprozesse ‚out of the box‘ sofort einsetzbar sein, ohne monatelanges Customizing. Gleiches gilt für die unterstützten Bewertungs- und Aggregationsmethoden. Moderne Risk-Ma­nagement-Lösungen unterstüt­zen ein umfangreiches Paket an qualitativen und quantitativen Methoden und erlauben es, mittels Risikoaggregationsmethoden die Gesamtrisikoposition für ein Unternehmen zu berechnen“, er­klärte uns dazu Günther Angerbauer.

„Der Name ‚Decision Engineering‘ ist für uns Programm. Unser gesamtes Tun ist darauf aufgebaut, Unternehmen zu unterstützen und nachhaltige Entscheidungen effizient zu treffen“, bringen es Günther Angerbauer (li.) und Markus Müller (re.) auf den Punkt.

Aber sollte eine Gesamtlösung nicht auch angrenzende „Risk & Com­plian­ce“-Disziplinen wie Infor­ma­tions­sicher­heit, Datenschutz, IKS, Qualitäts-, Audit- und Policy-Management so un­ter­stützen, dass jeder Beteiligte in „sei­ner“ Sprache angesprochen wird? Angerbauer gab dazu zu bedenken: „Ja, aber auch hier gilt der Grundsatz, dass die Inhalte und Referenzen zu den Compliancevorgaben Teil der Lösung sein sollen, damit der Einführungs- und Betreuungsaufwand für den Kunden auf ein Minimum reduziert werden kann.“ Aber nicht nur die Features einer Lösung sind von Bedeutung, sondern auch die Implementierung und der reibungslose Betrieb. Ohne Management-Commitment und gute Kenntnis über die Wertschöpfungsprozesse, die kritischen Unternehmensbereiche und das Identifizie­ren der Key-Stakeholder sind eine erfolgreiche Implementierung und der anschließende Betrieb eines Risk-Management-Systems kaum möglich. Markus Müller erklärte uns dazu: „Der Einsatz einer methodengestützten und simulationsunterstützenden Risk-Management-Lösung, die eine optimale Datenbasis für die Entscheidungen der Key-Stakeholder liefert, komplettiert die Basis für eine effektive und langfristig funktionierende Lösung. Im laufenden Betrieb sind die zyklische Aktualisierung der Risikowerte unter Betrachtung ihrer Einflussgrößen und aussagekräftiges Reporting entscheidend.“

Der Name „Decision Engineering“ ist für Calpana Programm und Philosophie zugleich, gab uns Markus Müller zum Schluss mit auf den Weg: „Unser gesamtes Tun ist darauf aufgebaut, Unternehmen zu helfen, nachhaltige Entscheidungen effizient zu treffen. Dies gelingt durch systematische und methodisch saubere Vorgangsweisen und Berechnungsmethoden, die Teil unserer Lösung Crisam sind.“

Weitere Informationen unter:
www.calpana.com
www.crisam.net

Blockchain, Mythos und Wahrheit

Was es ist, was es kann und was es nützt

Blockchain. Never have so  many people sought so much  from a technology understood  by so few. (Aengus Collins, Practice Lead, Global Risks, World Economic Forum)

Teil 1. Wie entstand die Notwendigkeit für eine sichere Informationskette

Es ist erstaunlich, wie ein Begriff aus der Mechanik, der dort in der Regel Gummiblock Ketten (Rubber block chain) meint, eine solche Euphorie und damit einhergehende Erwartungshaltung in der IT-Branche auslösen konnte.

Heutzutage ist Blockchain ein vielfach in allen Bereichen der Software-und-Informationstechnologie-Branche genutzter Begriff, der immer gerne dann herangezogen wird, wenn es besonders sichere Systeme, Lösungen oder Konzepte zu beschreiben gilt.

Im Grunde ist die Suche nach einem sicheren Weg Informationen von A über B zu C zu schaffen so alt wie die Informationsverarbeitung. Bereits die Römer erfanden die erste, simple Kryptografie um sicherzustellen, dass Botschaften unveränderbar und authentisch übermittelt werden konnten.

In der Vergangenheit hatten wir aber vielfach nicht die Notwendigkeit komplexe Verfahren zur Sicherung von Informationen zu verwenden, da Transaktionen persönlich ausgeführt wurden. Um einen Vertrag zu zeichnen, trafen sich die Parteien, um dieses Vertragswerk gemeinsam zu besprechen und zu unterschreiben. Um eine Sicherheit für Dritte zu schaffen, wurde (und wird) ein Notar hinzugezogen, der die Rechtmäßigkeit des Geschäftes bestätigt und mit seiner Position und seiner Unterschrift für Echtheit bürgt.

Als wir weitere Kommunikationsmethoden erfanden, die ein persönliches Zusammentreffen nicht mehr notwendig machten, wie z.B. das Telefon oder das FAX, einigten wir uns darauf, dass für die Teilnahme an dieser Kommunikation Informationen zu den beteiligten Personen hinterlegt wurden, die zumindest dem Anbieter bekannt waren. Lediglich in wenigen, sicherheitsrelevanten Bereichen wurden Technologien für die Verschlüsselung und Authentizität entwickelt, deren Komplexität (und deren Preis) eine breite Nutzung unerschwinglich machte.

Aber auch ohne Verschlüsselung zweifelt bis heute fast niemand daran, dass eine Telefonnummer einer realen Person oder Unternehmung „gehört“ und diese auch am anderen Ende der Leitung ist, wenn ich dort anrufe. Gleiches gilt für Faxe, welche durch die Zeit- und Übertragungsangaben sogar eine sehr hohe rechtliche Sicherheit erlangt haben.

Auch als Kommunikation noch weiter anonymisiert wurde (Webseiten, etc.), ersannen wir trickreiche Mechanismen, wie Anbieter Zertifikate, die von „trusted authorities“, also quasi Internetnotaren, ausgestellt wurden, um die Echtheit und die Personen hinter dem Zertifikat zu bestätigen.

Erstaunlicherweise haben all diese Ideen nie geholfen, Sicherheit zum Beispiel beim Austausch von Emails oder elektronischen Dokumenten zu schaffen.

Als Ender der 80er Jahre die Ideen von rein elektronischer Währung entstanden, war es an der Zeit sich mit Lösungen zu beschäftigen, die garantieren, dass ein Objekt über viele Stufen seines Transportes und seiner Verwendung niemals seine Integrität und Echtheit verliert.

Die Idee hinter Blockchain war geboren.

Vernetzte Gesellschaft

Die Digitalisierung führt zu tief greifenden Änderungen sowohl im Informations- und Entscheidungsverhalten des Einzelnen als auch im menschlichen Miteinander.

Wie empfinden Sie die zunehmende Beschleunigung durch die Digitalisierung? Freuen Sie sich schon auf die Chancen, die zukünftige Vernetzungstechnologien möglich machen werden? Oder fühlen Sie sich überfordert und können sich nicht vorstellen, wie Sie das alles stemmen sollen? Sehr wahrscheinlich wird uns aber die künstliche Intelligenz in naher Zukunft noch mehr Arbeit abnehmen.

Auch in öffentlichen Debatten wird momentan der Einfluss digitaler Technologie auf individuelles Verhalten und gesellschaftliche Prozesse kontrovers diskutiert. Eins ist jedoch sicher, die digitale Kluft wird immer größer und die Auswirkungen der Digitalisierung kriegen wir alle zu spüren. Die Digitalisierung führt zu tief greifenden Änderungen sowohl im Informations- und Entscheidungsverhalten des Einzelnen als auch im menschlichen Miteinander. In diesem Kontext ist noch lange nicht erforscht, welche Auswirkungen die Vernetzung der Gesellschaft noch so mit sich bringen wird. Neue Technologien wie die Blockchain oder Robotic Process Automation und KI verändern uns schnell und in Realtime.
Um genau deshalb die richtigen Fragen zu stellen, ist im letzten Jahr das Weizenbaum-Institut für die vernetzte Gesellschaft an den Start gegangen. Die Aufgabe des Instituts ist es, aktuelle gesellschaftliche Veränderungen, die sich im Zusammenhang mit der Digitalisierung abzeichnen, zu untersuchen und künftige politische und wirtschaftliche Handlungsoptionen zu skizzieren. Das Kernziel des Instituts besteht in exzellenter, interdisziplinärer und problemorientierter Grundlagenforschung, die zugleich anwendungsorientierte Vorhaben antreibt und daraus wiederum Impulse für neue Forschungsfragen gewinnt. Um dem Zusammenspiel von Technik und Gesellschaft gerecht zu werden, wird das Prinzip der Interdisziplinarität nicht nur punktuell, sondern in allen Forschungsbereichen und Vorhaben realisiert. Dabei wird das Institut zum ersten Mal alle relevanten Fachdisziplinen integral in einem Forschungsprogramm vereinen und eine holistische Perspektive auf den Prozess der Digitalisierung in der Gesellschaft entwickeln.

Eine zentrale gesellschaftliche Herausforderung besteht in der Sicherung demokratischer Selbstbestimmung und Teilhabe unter den Bedingungen der zunehmenden Digitalisierung und Automatisierung. „Dabei geht es sowohl darum, Entwicklungschancen für die Gesellschaft zu entdecken, als auch darum, Risiken besser einschätzen zu können. Das soll unserer Gesellschaft auf allen Ebenen ermöglichen, auf jeweils neue Herausforderungen evidenzbasierter als bisher zu reagieren. Leitgedanke ist dabei die Selbstbestimmung der Menschen als Individuen wie auch der Gesellschaft als Ganzes, die auch in neuen digitalen Umgebungen gesichert und gestärkt werden soll“, erklärte uns dazu Prof. Dr. Martin Emmer von der FU Berlin im Hintergrundgespräch.
Das Gründungsmitglied des Weizenbaum-Institutes beschäftigt sich mit den Forschungsfeldern Nutzung Digitaler Medien und politische Kommunikation.

Aktuelles aus der Sharing Economy

Prof. Dr.-Ing. Norbert Gronau vom Weizenbaum-Institut: „Unsere Forschungsfragen sind insbesondere, wie im Zeitalter der Digitalisierung die zukünftige individuelle und prozessnahe Qualifizierung von Mitarbeiterinnen und Mitarbeitern aussehen muss.“

Die zunehmende Vernetzung unserer Gesellschaft bringt neue Konsummodelle hervor. Wenn es nach dem Willen der Konsumenten geht, haben Unternehmen der Konsumgüterbranche in Sachen Sharing Economy Nachholbedarf in Deutschland.

Es scheint so, dass die Idee, Produkte auf Zeit zu besitzen und lediglich zu mieten, in Deutschland ein neues Level erreicht hat. Aktuell testen gerade große deutsche Einzelhändler ein neues Geschäftsmodell, um ihre Waren zusätzlich zum Abverkauf noch zu vermieten. Dieses Vorgehen scheinen junge Verbraucher auch zu fordern im Kontext ihrer neuen Mobilität und Flexibilität. Das ist der Trend der jungen Generation, die nicht mehr so viel Wert auf den Besitz von Gütern legt. Doch inwieweit wird die Sharing Economy unsere zukünftigen Konsumgewohnheiten verändern?

Wie wir aus einer aktuellen Studie von PricewaterhouseCoopers wissen, nutzt hierzulande schon fast jeder Vierte Sharing-Economy-Angebote in der einen oder anderen Form. Derzeit liegen die Schwerpunkte in den Bereichen Medien, Unterkünfte und Mobilität. Maschinen hingegen werden noch vergleichsweise selten gemeinschaftlich genutzt. Die Studienautoren rechnen damit, dass mehr Rechtssicherheit und Vertrauen der Sharing Economy einen kräftigen Wachstumsimpuls geben dürfte. Auch das genossenschaftliche Prinzip als demokratische Unternehmensform ergänzt sich gut mit der vernetzten Sharing Economy.

Mit Geno­Sharing.com zum Beispiel erhalten Nutzer künftig die Möglichkeit, über eine vertrauenswürdige Plattform das nachhaltige Partizipationsmodell der Share Economy zu nutzen. „Die VR-Banken sind zu solch einem Geschäftsmodell prädestiniert, da sie selbst Gemeinschaften auf Gegenseitigkeit sind. Wie sie ganz konkret diese Rolle eines Vertrauensbrokers ausfüllen können, veranschaulicht die neue Verleih-Plattform GenoSharing.com, die noch im laufenden Jahr in die ‚Family & Friends‘-Testphase geht“, erklärte uns Klaus-Peter Bruns, Vorstandsvorsitzender der Fiducia & GAD IT AG im Hintergrundgespräch. Das Plattformkonzept der Fiducia & GAD ermöglicht den VR-Banken überdies, den digitalen Wandel in ihrer Region aktiv mitzugestalten.

Infrastruktur und Netzausbau?

„Leitgedanke unserer Forschung ist die Selbstbestimmung der Menschen als Individuen wie auch der Gesellschaft als Ganzes, die auch in neuen digitalen Umgebungen gesichert und gestärkt werden soll“, Prof. Dr. Martin Emmer von der FU Berlin.

Die Technologien und die Ideen sind da, die Infrastruktur lässt noch teilweise auf sich warten. Damit auch ländliche Gebiete nicht in Vergessenheit geraten, hängt viel vom Netzausbau ab. Fast 3,5 Milliarden Euro hat der Bund für den Netzausbau genehmigt, doch die Kommunen haben bislang nicht einmal ein Prozent der Mittel abgerufen. Kritik gibt es an den Anträgen: Sie seien zu kompliziert. Donald Badoux, Managing Director von Equinix in Deutschland, betreibt Rechenzentren und meint dazu: „Was die Breitbandverfügbarkeit betrifft, steht Deutschland im internationalen Vergleich nicht besonders gut da und bleibt hinter den skandinavischen Ländern, den USA oder Asien zurück. Daten sind der Rohstoff des 21. Jahrhunderts. Die bestehende Infrastruktur ist den aufkommenden Datenmengen gerade auch in Deutschland schon jetzt nicht mehr gewachsen. Grund dafür ist neben den wachsenden Datenvolumina der langsame Glasfaserausbau, der das Wachstum in Bezug auf Infrastruktur verlangsamt.“ Badoux erklärt weiter: „2017 veröffentlichte Equinix zum ersten Mal den Interconnection-Index. Der Index misst und prognostiziert das Wachstum der Interconnection-Bandbreite, also der Kapazität für den direkten, privaten Datenaustausch zwischen Unternehmen, Service-Providern und Kunden. Laut unseren Prognosen wird dieser private Datenaustausch in den kommenden Jahren weltweit um 45 Prozent pro Jahr wachsen. Bis 2020 sollen 5 000 Terabit pro Sekunde (Tbit / s) erreicht werden – was das öffentliche Internet übertrifft.“

Mobilität im Wandel

Wir sind quasi mitten im Mobilitätswandel und brauchen dazu ein neues verbraucherorientiertes Mobilitätsverständnis. Claus Grunow, Leiter Markt-, Geschäfts- und Produktentwicklung Deutsche Bahn Connect, betonte dabei im Interview mit der Redaktion: „Die Digitalisierung treibt den Mobilitätswandel in immer schnellerem Tempo voran, auch wenn wir noch einige Schritte vor uns haben bis zur Smart City oder Smart Mobility. Autonome Verkehre, On-Demand-Shuttles, Rideselling bis hin zu Transport-Drohnen in der Logistik: Die neuen Mobilitätslösungen sind das nach außen vielleicht sichtbarste Charakteristikum des gegenwärtigen Wandels, doch die digitale Vernetzung unserer Mobilitätsangebote wird unser Mobilitätsverhalten und unsere Städte in einem wesentlich schnelleren und größeren Ausmaß grundlegend verändern. Mobilität wird in naher Zukunft vollständig digital ablaufen. Heute noch per Smartphone und morgen vielleicht mit gänzlich neuen mobilen Endgeräten und Applikationen. Wir als Unternehmen sind gefordert, den digitalen Wandel aktiv zu gestalten und nicht weiter abzuwarten, bis die Kundenerwartungen und -bedürfnisse uns fordern.“

Damit Unternehmen den digitalen Wandel mitgestalten können, müssen Mitarbeiter im Kontext der neuen Technologien und Möglichkeiten am Ball bleiben. Learning on the Job mit neuen digitalen Weiterbildungsangeboten ist en vogue und zeitgemäß. Nach neuen Inhalten und Methoden des Lehrens und Lernens für unterschiedliche Bildungsbereiche zu fragen, gewinnt zunehmend an Bedeutung. Prof. Dr.-Ing. Norbert Gronau vom Weizenbaum-Institut erklärte uns dazu: „Unsere Forschungsfragen sind insbesondere, wie im Zeitalter der Digitalisierung die zukünftige individuelle und prozessnahe Qualifizierung von Mitarbeiterinnen und Mitarbeitern aussehen muss. Wie können geeignete Lehr-Lern-Szenarien entwickelt und erprobt werden, unter anderem in unserem Digitallabor, und vor allen Dingen, wie sehen digitale Selbstlernangebote aus?“ Die Forschungsbereiche von Prof. Gronau umfassen die Themen des Betrieblichen Wissensmanagements, dazu gehören auch Weiter­bildung, Training on the Job und E-Learning sowie die Gestaltung von wettbewerbsfähigen Architekturen industrieller Informationssysteme im Bereich Industrie, Handel, Dienstleistung und öffentlicher Sektor.

Nachhaltigkeit und Vernetzung

Computer haben schon lange unseren Schreibtisch verlassen und bieten uns in Form vernetzter Geräte in unserem privaten Umfeld und am Arbeitsplatz immer neue Möglichkeiten. In Zukunft wird alles mit allem vernetzt werden. Nicht nur die Städte, unser ganzes Leben wird dadurch immer „smarter“. Aktuell stehen dabei oft noch „Gadgets“ im Fokus, aber die Technologie hat das Potenzial, Wirtschaft und Gesellschaften grundlegend zu verändern. Smart-Home-Devices können beispielsweise helfen, Kosten zu senken und zu Hause Energie zu sparen. Mukul Dhyani von Wipro Ltd. (NYSE:WIT) erklärte uns dazu: „Vor allem Entwicklungsländer können von der weltweit steigenden Zahl vernetzter Geräte enorm profitieren. Smartere Städte werden zu sauberem Wasser, sauberer Luft und verbesserter öffentlicher Gesundheit führen. IoT-Technologie kann die Produktivität in der Landwirtschaft und damit die Erträge verbessern. Sie kann gewährleisten, dass die Hilfe auch die Bauern erreicht, die die Unterstützung benötigen. Bei aller Euphorie sollten wir aber nicht aus den Augen verlieren, dass hier noch viel Arbeit vor uns liegt. Einige Herausforderungen beim Datenschutz, der Kompatibilität der Geräte sowie der Sicherheit müssen noch gelöst werden.“

„Wir untersuchen, inwieweit Software durch die mit KI und Daten ermöglichten neuen Dimensionen der Automatisierung auch neue mögliche Fragilitäten oder Angreifbarkeiten mit sich bringt“, so Prof. Dr. Ina Schieferdecker.

Aktuell diskutiert das Thema gerade die Forschungsgruppe „Kritikalität softwarebasierter Systeme“ am Weizenbaum-Institut. „Wir untersuchen, inwieweit Software durch die mit KI und Daten ermöglichten neuen Dimensionen der Automatisierung auch neue mögliche Fragilitäten oder Angreifbarkeiten mit sich bringt. Um diese zu adressieren, schauen wir insbesondere auf die nötigen Aus- und Weiterbildungen als auch auf die passende Benutzbarkeit und Bedienbarkeit der Systeme. Da es keine 100-prozentig kor­rekte Software oder eben KI gibt (und geben wird), kommt es sehr darauf an, einen souveränen Umgang mit diesen Systemen sowohl in Normalsituationen als auch in Fehler- oder Ausfallsitu­a­tionen zu ermöglichen“, so Prof. Dr.-Ing. Ina Schieferdecker, Professorin für Quality Engineering von Offenen Verteilten Systemen an der Technischen Universität Berlin und Gründungsdirektorin des Weizenbaum-Instituts für die vernetzte Gesellschaft.

Die aktuellen Beispiele verdeutlichen gut, wie schnell uns die digitale Transformation berührt und verändert. Wir wollen alle hoffen, dass die Forschung in Zukunft rund um die Auswirkungen der Digitalisierung viele positive Einflüsse auf unsere Gesellschaft feststellen kann. Abzuwarten bleibt, wie schnell und flexibel unsere Politik die richtigen Rahmenbedingungen im Kontext der Digitalisierung verankern wird. Hier im Hinblick auf die künstliche Intelligenz, sonst wird aus der jetzigen digitalen Evolution doch noch eine digitale Revolution.

von Bernhard Haselbauer

Plattform für Nachhaltigkeit

„Bewältigen Sie doch einfach alle Ihre Nachhaltigkeits- und Complianceherausforderungen zentral und mit einem Mausklick“ – wäre das nicht eine optimale Lösung, um den zahlreichen internationalen Regulierungen und Anforderungen in den Bereichen Umwelt, Soziales und Materialien zu begegnen?

Internationale Regulierungen, aber auch Verbraucher- und Kundenanforderungen an die Nachhaltigkeit von Produkten und Lieferketten werden immer zahlreicher und komplexer. „Aus diesem Grund haben wir mit dem ‚SustainHub‘ eine zentrale Anlaufstel­le entwickelt, um die Kommunikation und Datenerfassung innerhalb der Lieferkette so einfach und effizient wie möglich zu gestalten“, betonte Jörg Walden, CEO von iPoint-systems, im Hintergrundgespräch mit unserer Redaktion. Über 50 000 Experten sind bereits auf dieser Community-Plattform aktiv und managen dort alle ihre Compliance- und Nachhaltigkeitsdaten an einer zentralen Stelle. „Der SustainHub sichert heute schon für über acht Millionen Produkte die Konformität mit Gesetzen und Vorschriften“, erklärte uns Jörg Walden dazu. Doch wie funktioniert das? Als universell nutzbare cloudbasierte Plattform ermög­licht der iPoint SustainHub den Zugang zu unterschiedlichen Applikationen im Bereich Nachhaltigkeit und Compliance. Dort wählen User einfach die Applikation, die sie benötigen, um ihre regulatorischen oder durch Kunden gegebenen Anforderungen zu erfüllen.

Ist man einmal auf der Plattform angemeldet, stehen die Conflict-Minerals-App, die Material-Compliance-App und die Product-Chem-Risk-App zur Verfügung. „Wir sind dabei, weitere Applikationen zu entwickeln, zum Beispiel für die Bereiche Social Compliance, Corporate Social Responsibility und ‚Life Cycle Assessment‘ (LCA)“, kündigt Walden zum Ende des Gesprächs an.

Weitere Informationen unter:
https://www.ipoint-systems.com/de/loesungen/sustainhub/

Achtung, Fortschritt

Reportage

KI ist der nächste logische Schritt im Zuge der Digitalisierung. Jetzt ist die Zeit, Zukunft aktiv zu gestalten.

­Datenautobahnen, papierlose Büros, digitalisierte und daher beschleunigte Prozesse – an all das denkt man nicht, wenn man beim Amtsgang brav seinen Nummernzettel zieht. Am vielversprechendsten erscheint noch der Getränkeautomat im Wartezimmer, klingt doch der zweite Teil der Wortkomposition fast schon nach Fortschritt.

Der Staat, der eigentlich als Vorbild fungieren, der digitale Kompetenz vorleben müsste, um auch digital-kompetente, digital-mündige Bürger hervorzubringen, hat sich irgendwann in dreifacher Ausfertigung im letzten Jahrhundert verzettelt.

Unkenntnis und Unbehagen gegenüber Algorithmen kennzeichnen laut einer Umfrage der Bertelsmann Stiftung unsere Bevölkerung quer durch alle Alters- und Bildungsschichten. So können 45 Prozent spontan nicht sagen, was ihnen zum Begriff „Algorithmus“ einfällt und 73 Prozent fordern ein Verbot von Entscheidungen, die Software alleine trifft.

Politische Willensbekundungen sind immerhin vorhanden. So will die EU mit ihrem Plan für den Ausbau der künstlichen Intelligenz (KI) die Investitionen in Forschung und Entwicklung in diesem Bereich im öffentlichen und privaten Sektor bis 2020 um 20 Milliarden steigern. Woher das Geld kommen soll, ist dabei allerdings noch unklar, stockt man doch das eigene Forschungsprogramm Horizon 2020 nur um 1,5 Milliarden auf.

Vielleicht aus dem Cyber Valley in Deutschland. Die vom Land Baden-Württemberg geförderte Initiative hat zumindest schon erhebliche KI-Investitionen bewirkt. So wird beispielsweise Amazon ein Forschungszentrum für KI in der Universitätsstadt Tübingen eröffnen. 886 Millionen Euro investierte die öffentlich-private Risikokapitalgesellschaft Hightech Gründerfonds in Robotik-, Automatisierungs- und Virtual-Reality-Start-ups.

Chancen wahrnehmen

Mut macht auch eine aktuelle PwC-Studie, die vorrechnet, dass das deutsche Brutto-Inlandsprodukt allein durch KI bis zum Jahr 2030 um 11,3 Prozent steigen könnte, was einer Wertschöpfung von 430 Milliarden Euro entspräche.

Einzig der Konjunktiv trübt, weist PwC selbst doch darauf hin, dass die Zahlen „als potenzieller Umfang der wirtschaftlichen Auswirkungen von KI interpretiert und nicht als direkte Schät­zung des zukünftigen Wirtschaftswachs­tums aufgefasst werden“ sollten.

Ein Potenzial, welches sicherlich nur ausgeschöpft werden kann, wenn man die Bevölkerung und letzten Endes die eigenen Mitarbeiter mit an Bord holt. Dass hier auch innerhalb der Unternehmen noch Nachholbedarf besteht, offenbart auch eine aktuelle Umfrage von Another Monday, die der Anbieter intelligenter Prozessautomatisierungslösungen beim Markt- und Meinungsforschungsunternehmen YouGov in Auftrag gab.

„Die Automatisierung betrieblicher Abläufe ist kein Projekt, das am Tag der Implementierung abgeschlossen ist“, so Hans Martens, Gründer von Another Monday.

So fühlt sich jeder dritte deutsche Arbeitnehmer in Bezug auf den digitalen Wandel vom eigenen Unternehmen schlecht beraten und 65 Prozent gaben an, dass zu wenig thematisiert wird, welche Auswirkungen die Digitalisierung auf die eigene Tätigkeit hat. Dennoch sehen 72 Prozent der Befragten die Digitalisierung eher als Chance für ihre berufliche Weiterentwicklung und Unternehmen stehen vor der essenziellen Pflicht, ihre Mitarbeiter dabei zu unterstützen, die sich bietenden Chancen wahrzunehmen.

Dies betrifft beispielsweise auch die HR-Abteilung eines Unternehmens. „Sowohl Arbeitsziele und -inhalte als auch die eingesetzten Werk­zeuge werden sich massiv verändern“, berichtet Wieland Volkert, Country Manager Deutschland von PeopleDoc. Die HR mutiert immer mehr zum strategischen Erfolgsfaktor innerhalb eines Unternehmens.

Im War of Talents müssen Strategien entwickelt werden, „um die Besten der Besten für das Unternehmen zu gewinnen. Zudem müssen sie durch perfekte Services und gezielte Mitarbeiterförderung die Leistungsträger langfristig binden. Und schließlich ist die HR dafür verantwortlich, eine Infrastruktur aufzubauen, die in Personalfragen maximale Flexibilität, Rechtssicherheit und Wettbewerbsfähigkeit garantiert.“

„Robotic Process Automation“ (RPA) hilft, die HR von „zeitfressenden Routinearbeiten zu befreien“ und Freiräume für strategische Aufgaben zu schaffen. Allein das Onboarding, ein Prozess, der bislang rund vier Wochen in Anspruch nahm, kann mittels RPA völlig automatisiert werden.

RPA löst das tschechische Lehnwort Roboter von seiner physischen Manifestation. Der ursprünglich menschenähnliche Automat war verdammt, unentwegt monotone körperliche „robota“, also Zwangs- oder Fronarbeit, zu verrichten. „Jetzt ahmen Software-Roboter menschliches Verhalten nach“, berichtet Frank Termer, Bereichsleiter Software beim Digitalverband Bitkom. „Wenn sie zum Beispiel Daten automatisiert in Formularfelder eingeben.“

Dass Mitarbeiter so mehr Zeit für andere Tätigkeiten erhalten, bestätigt auch Martin Wild, CEO von Sogedes, und hebt hervor: „Die Arbeit wird einfach effizienter und mit weniger Fehlern erledigt. Sobald RPA im Einsatz ist, kann mit gleichem Ressourceneinsatz mehr getan werden, was natürlich Raum für neue Geschäfte entstehen lässt.“ Konkretes Neugeschäft sieht er beispielsweise im Kundenkontakt entstehen. „Hier können Cross- und Upsell-Potenziale genutzt werden, schnellere Vorgangsbearbeitung kann zu höherem Datendurchsatz, geringere Feh­lerquoten bei komplexen Buchungsprozessen können zu weniger Storni führen.“

Die Folge sind zufriedenere Kunden, was auch Dirk Dose, Managing Consultant bei PPI, bestätigt. Das Unternehmen berät Finanzdienstleister hinsichtlich des Einsatzes von Software-Robotern.
„Damit erhält jeder Mitarbeiter einen virtuellen Baukasten, um die eigenen Tätigkeiten zu verbessern“, berichtet er. Geringe Kosten, hohe Produktivität, mehr Qualität, bessere Compliance, schnelle Umsetzung und eben zufriedene Kunden sind die Folge.

Enormes Potenzial für den Einsatz im Unternehmen bietet auch Advanced Analytics, wie Clemens Frank, Mitglied der Geschäftsführung und verantwortlich für die Ressorts IT Platforms und Innovation bei Verovis, am Beispiel des Cash Forecastings verdeutlicht. „Bei der Cash-in-Position existiert eine gewisse Unsicherheit, die aus dem Zahlungsverhalten der Kunden resultiert“, erläutert er das Problem.

Durch die Daten innerhalb der ERP-Systeme können Advanced-Analytics-Methoden Muster des Zahlungsverhaltens der Kunden bzw. Kundengruppen erkennen. Beispielsweise zahlt ein Kunde immer am ersten Donnerstag im Monat, da der Zahlungslauf in dessen ERP-System entsprechend eingestellt ist. „Hat man solche Muster entdeckt“, führt Frank aus, „können konkrete Handlungsanweisungen für das Management der Geschäftsprozesse erzeugt werden.“

„Die gute Nachricht ist“, meint Michael Kanellos, Technologieanalyst bei OsiSoft, „dass Unternehmen den Wert von Analytics verstehen.“ Dabei legt sein Unternehmen den Fokus auf die Auswertung von Maschinendaten, wo noch extremer Nachholbedarf besteht. Laut einer IDC-Studie werden 45 Prozent aller Daten nicht genutzt.

„Maschinen erzeugen enorme Datenmengen, auf die die Mitarbeiter schnell reagieren müssen“, betont er. Analytik kann dabei auf die Datenebene gehen und strukturierte Daten für zusätzliche Erkenntnisse auswerten. „Ein Datenmanagementsystem wie unseres kann Probleme Stunden bis Tage im Voraus erkennen. Die Analytik liefert Vorhersagen Wochen oder sogar Monate im Voraus.“ Den effektiven Nutzen verdeutlicht Michael Kannellos mithilfe eines Beispiels: „Eine Firma entdeckte ein Windkraftanlagenproblem frühzeitig mithilfe unseres PI-Systems, wodurch die Reparaturkosten um 90 Prozent gesenkt werden konnten.“

Technologien richtig implementieren

Die Vorteile für Mitarbeiter und Unternehmen liegen auf der Hand, sie müssen nur noch zum Einsatz gebracht werden. „Für eine gewinnbringende Nutzung von RPA bedarf es keines besonderen digitalen Reifegrads“, ist sich Wild von Sogedes sicher, betont jedoch, dass der entscheidende Faktor für ein erfolgreiches Projekt nicht per se die grundsätzliche Herangehensweise sei, „sondern die klare Zieldefinition der zu optimierenden und automatisierenden Prozesse und Applikation.“

Darius Heisig von Kryon Systems hat sich zum Ziel gesetzt, Unternehmer dabei zu unterstützen, überhaupt erst die notwendige Klarheit über die Prozesse im eigenen Haus zu erhalten. Welche Hürden es dabei in der Regel zu überwinden gilt, verdeutlicht er wie folgt: „Sehr häufig werden Investitionen mit großen Systemhäusern in RPA-Projekte investiert. Allein für die Analyse, welche Prozesse zu analysieren sind, werden dann schon mehrere Hunderttausend Euro ausgegeben.“ Problematisch dabei ist zudem, dass diese Analysen oft noch fehlerhaft sind und nicht alle Varianten erkannt werden.

Abhilfe schafft dabei die „Process Discovery“ genannte Methodik. Dabei ermittelt eine KI die sich wiederho­lenden Prozesse beim Bildschirm­arbeits­alltag und macht Vorschläge hinsichtlich des höchsten Optimierungspotenzials.

Jetzt kann also fröhlich losautomatisiert werden. Automatisierungsraten von 99 Prozent und Kostenersparnisse von bis zu 75 Prozent lassen sich damit generieren. Kein Wunder also, dass rund 72 Prozent der befragten Unternehmen aus den USA, Großbritannien, Frankreich und Deutschland laut des aktuellen Automation Index des Marktforschungs- und Beratungshauses ISG bis 2019 RPA im laufenden Betrieb oder zumindest als Test in Pilotprojekten einsetzen wollen.

Die Arbeit wird einfach effizienter und mit weniger Fehlern erledigt.

Eine gemeinsame Initiative führender RPA-Anbieter unter der Federführung des Institute of Electrical and Electronics Engineers (IEEE) soll Unternehmern dabei helfen, auf dem sonst intransparenten Markt für Prozessautomatisierung den richtigen Partner zu finden. Die IEEE-Initiative und Another Monday, der einzige deutsche Anbieter, der sich aktuell an diesem Vorhaben beteiligt, wollen mit einem neuen IEEE-Standard Auswahlprozesse in Sachen intelligenter Prozessautomatisierung (IPA) verbessern.

Der Standard soll noch dieses Jahr auf den Markt kommen, neben einer einheitlichen Definition, die für Vereinfachung und Transparenz sorgt, soll er 160 Kriterien für RPA-Lösungen zusammenfassen, damit Anwender marktgängige Technologien besser einordnen und vergleichen können. Die Taxonomie der Kriterien erleichtert Unternehmen, zen­trale Aspekte des eigenen Anforderungskatalogs zu bewerten – beispielsweise wie skalierbar eine Automatisierungslösung und wie hoch der Implementierungsaufwand ist.

Auch Dr. Andreas Liebl, zuständig für New Venture Creation und appliedAI bei UnternehmerTUM, will „Deutschland ins KI-Zeitalter bringen“. Hierzu wurde die appliedAI-Initiative ins Leben gerufen, die Unternehmen zusammenbringt, die alle vor der gleichen Herausforderung stehen – dem Einsatz von KI im Unternehmen.

„Wir ermöglichen als gemeinnützige Initiative den offenen Austausch an einem neutralen Ort, bilden Mitarbeiter und Manager von Unternehmen weiter und verringern die Einstiegshürden durch die Möglichkeit, in unserem KI-Lab mit neuester Technologie und Expertenunterstützung prototypische KI-Systeme zu erstellen.“

Und nach der Implementierung?

„Die Automatisierung betrieblicher Abläufe ist kein Projekt, das mit dem Tag der Implementierung abgeschlossen ist“, bedenkt Hans Martens, Gründer von Another Monday. „Nur wenn sich hieran ein kontinuierliches Monitoring anschließt und Software-Roboter bei Veränderung der Systemlandschaft entsprechend angepasst werden, hat die RPA-Initiative Aussicht auf nachhaltigen Erfolg.“

„Idealerweise geschieht die Anpassung dann nicht erst, nachdem die Änderung schon stattgefunden hat“, wagt Heisig von Kryon Systems mit dem Begriff „Continuous Process Optimisation“ den Blick in die Zukunft. „Eine AI könnte, schon bevor Änderungen eingeführt werden, proaktiv einen Vorschlag machen.“

„KI entwickelt sich so rasant, dass viele Fragen ungeklärt sind bzw. immer neu gestellt werden müssen“, ergänzt Dr. Liebl. „Will eine Firma mithalten, müssen sich ihre KI-Experten zum Teil wöchentlich über aktuelle KI-Trends auf den neusten Stand bringen.“ Dies gelte nicht nur für die Auswahl der richtigen Methoden und Algorithmen, sondern insbesondere auch für organisatorische Fragen, die stets im Vordergrund stehen sollten.

Achtung, Datenschutz!

Bevor RPA und künstliche Intelligenz oder deren Verschmelzung, RPA 2.0, die Produktivität innerhalb der Unternehmen zu steigern vermögen, gilt es, Bedenken hinsichtlich des Datenschutzes auszuräumen.

Unternehmer, die auf KI beruhende Systeme implementieren wollen, sind gefordert, an dieser Stelle für Transparenz zu sorgen und den Mitarbeitern gegenüber kennt­lich zu machen, welche Daten erhoben werden und wie eine Anony­mi­sie­rung gewährleistet wird.

In besonderem Ausmaß gilt das für die so­genannten kognitiven Systeme. Selbst­lernende Bild­erkennungssoftware bedarf ihr zur Verfügung gestellter Bilder; Chatbots lernen durch die Auswertung unserer Eingaben und die immer populärer werdenden digitalen Assistenten, die à la Alexa immer natürlicher auf das gesprochene Wort reagieren sollen, be­nötigen Tonaufnahmen. Nur so werden sie geschult, uns immer besser im Büroalltag, zu Hause oder auch beim Navigieren auf der Straße zu unterstützen.

Gib Gas!

KI soll gerade die Automobilbranche hierzulande laut oben erwähnter PwC-Studie wieder auf die Überholspur bringen. Dabei liegt nicht nur das freihändige Navigieren, sondern insbesondere das freihändige, das autonome Fahren im Fokus der Forschung.

Auch wenn der Name Elon Musk in diesem Zusammenhang den meisten eher ein Begriff sein dürfte als Professor Ernst Dickmann. Der ehemalige deutsche Robotiker und Hochschullehrer war der Erste, der in Zusammenarbeit mit der Daimler-Benz AG im Rahmen eines von der Europäischen Forschungsorganisation Eureka geförderten Projekts schon 1994 selbst fahrende Autos auf die Straße brachte.

Aus diesem Prometheus genannten Projekt gingen wichtige Technologien, vom Tempomaten bis zur Bremsautomatik, hervor. Während das namensgebende Feuer und Fortschritt stiftende Vorbild auf Geheiß des Göttervaters im Kaukasusgebirge festgeschmiedet wurde, wurde der prometheische Funken des Forschungsprojekts nur auf Eis gelegt. – Der Gott des Marktes ist der Kunde und dieser fuhr in den 90ern lieber noch selbst.

Erst 2010, mit dem Druck aus dem Silicon Valley und durch eine neue Autofahrer-Generation, die einfach nur von A nach B kommen will, begann die Eisschmelze. Seither setzt man wieder verstärkt auf die Entwicklung von KI-Technologien. Bleibt zu hoffen, dass dieses Umdenken nicht, wie schon bei der Elektromobilität, zu spät stattgefunden hat, war doch 2010 auch ausgerechnet das Jahr, in dem sich Professor Dickmann aus Forschung und Lehre zurückzog und seither nur noch hier und da bei vereinzelten Vorträgen auftaucht.

Autonomie heißt Selbstbestimmung

Ist also der Autofahrer der 90er-Jahre oder ist vielleicht unsere Mentalität, unsere Skepsis oder Ignoranz das größte Hindernis des technologischen Fortschritts? Immerhin versuchte die Bundesregierung mit der Einführung des elektronischen Identitätsnachweises (eID) die Digitalisierung anzukurbeln und scheiterte gnadenlos: Von 51 Millionen Bürgern, die 2017 den seit 2010 verfügbaren Personalausweis im Scheckkartenformat besaßen, hatte nur ein Drittel den elektronischen Identitätsnachweis überhaupt freigeschaltet.

Und nur 15 Prozent davon, also etwa gerade einmal 2,5 Millionen Bürger, haben die Funktion überhaupt schon einmal genutzt. „Wir waren der Meinung, dass man den elektronischen Personalausweis bewerben muss“, klagte BVA-Präsident Christoph Verenkotte. „Das sah der Bundestag seinerzeit anders und hat den einstelligen Millionenbetrag für eine Öffentlichkeitskampagne gestrichen.“

Diese Aussage tätigte Verenkotte im Zuge der Debatte um das „Gesetz zur Förderung des elektronischen Identitätsnachweises“, welches am 7. Juli 2017 verkündet wurde und wodurch seither die eID-Funktion standardmäßig aktiviert ist. Die Privatwirtschaft hat dabei schon längst selbst erfolgreiche Identifikationsverfahren via Webcam und selbstlernender Deep-Learning-Algorithmen etabliert.

Ein starkes KI-Ökosystem braucht Daten als Grundlage für Forschung und
Entwicklung.

Der Staat hat letzten Endes die gleiche Aufgabe zu bewältigen wie die Unternehmen, sollen seine Digitalisierungsvorhaben nicht genau so scheitern wie die Einführung des digitalen Personalausweises.

Er ist verpflichtet, den Bürger aufzuklären und ihm gegenüber kenntlich zu machen, welche Daten erhoben und wie eine Anonymisierung gewährleistet wird. Die Aufgabe der Politik sollte es nicht primär sein, den Bürger durch immer neue Gesetze zu bevormunden, zu verwirren oder zu überfordern. Sie sollte aufklären, sodass dieser selbstständig Entscheidungen treffen kann.

Datenschutz hat sicherlich seine Berechtigung, aber nicht all unsere Daten sind hochsensibel. Immerhin ist eine totale Verweigerung jeder Datenweitergabe in digitaler Form gleichbedeutend mit dem Stillstand der Forschung.

Ohne Zugang zu Daten sind selbstlernende Systeme nicht in der Lage, ihre namensgebende Funktion auszuüben. „Ein starkes KI-Ökosystem braucht Daten als Grundlage für Forschung und Entwicklung – gerade beim Deep Learning. Hier sind die Bedingungen für Datenpools zu verbessern, denn insbesondere diese Dimension fehlt bisher in der deutschen Debatte.

Auch Nutzungsmöglichkeiten anonymisierter und synthetisierter Daten zu Trainingszwecken müssen stärker gefördert und eingesetzt werden können.“ So lauten auch die Forderungen eines Positionspapiers der Stiftung Neue Verantwortung.

Da verwundert es nicht, dass China jetzt schon eine Vorreiterrolle in der KI-Forschung einnimmt. Wie der MIT Technology Review bescheinigt, wurden hier in den letzten Jahren die meisten Forschungsarbeiten zum Thema Deep Learning veröffentlicht. Das Land profitiert von einer ungeheuren Datenmenge.

Rund 750 Millionen Internetbenutzer haben dort keine Bedenken und stellen wesentlich ungehemmter Daten zur Verfügung als wir DSGVO-Bürger. Sehr wahrscheinlich also, dass China seine Dominanz noch weiter ausbauen wird, zumal auch der Staatsrat der Volksrepublik ankündigte, dass man mit einem Etat von 150 Milliarden Dollar bis 2030 zum alleinigen globalen Spitzenreiter werden möchte.

Wenn wir nicht vollends abgehängt werden wollen und das sicherlich vorhandene Potenzial wirklich ausschöpfen möchten, bedarf es also eines Umdenkens. Fortschritt geschieht, ganz gleich, ob wir aktiv daran teilnehmen oder nur im Wartezimmer Platz nehmen.

 

 

Autor: Andreas Fuhrich

„Wir sind definitiv kein Roboter“

Die TREND-REPORT-Redaktion sprach mit Dr. Christian Jasperneite (Titelbild), CIO von M.M.Warburg & CO  und Jan Kühne (Leiter Digital) über Menschen, Maschinen und den Einfluss künstlicher Intelligenz auf die Finanzbranche.

Herr Dr. Jasperneite, seit Oktober 2017 bieten Sie mit Warburg Navigator eine digitale Vermögensverwaltung an. An wen richtet sich das Angebot?
Dr. Jasperneite: Das Angebot richtet sich an alle, die einerseits erkannt haben, dass Sparen alleine wenig Sinn ergibt, aber andererseits nicht die Entscheidung darüber treffen wollen, wie investiert werden soll. Es gibt gefühlt unendlich viele Aktien, Anleihen und Fonds – da kann man als Privatperson leicht den Überblick verlieren. In vielen Fällen führt das dann dazu, dass man gar nichts macht. Früher wäre das kein großes Problem gewesen, da man ja selbst mit dem Sparbuch ansehnliche Zinsen erwirtschaften konnte. Und das ist jetzt eben vorbei, und zwar vermutlich für die nächsten zehn Jahre.

In welche Anlageformen investieren Sie dabei?
Dr. Jasperneite: Der Navigator investiert derzeit nur in ETFs und aktive Fonds, die wiederum 24 Märkte in allen denkbaren Assetklassen abbilden. In den kommenden Monaten werden wir jedoch unser Angebotsspektrum erweitern und auch Vermögensverwaltungen mit Einzeltiteln anbieten.

Herr Kühne, sind Roboter jetzt die besseren Anlageberater?
Kühne: Der Einsatz von „Robotern“ findet insbesondere bei der Überwachung von Anlagevorgaben Anwendung, weil hier automatisierte Prozesse gegenüber der Kontrolle durch Menschen überlegen sind. Im Kontext digitaler Vermögensverwaltung kommen Algorithmen häufig zur Anwendung, da die Anlagestrategie über das Risikomaß VaR abgebildet wird, deren Einhaltung wiederum mittels quantitativer Verfahren überwacht wird. Bei Warburg Navigator kombinieren wir diese prognosefreien Algorithmen aber mit einem prognosebasierten Ansatz, da wir der Ansicht sind, dass Expertise und jahrzehntelange Erfahrungen von Menschen ein wichtiges Korrektiv sein können. Wir erreichen dies, indem ein prognosefreies Grundmodell durch prognosebasierte Elemente so „gelotst“ wird, dass die Navigator-Portfolios von den fundamentalen Einschätzungen des Asset Managements der Privatbank profitieren. Auch in der Anlageberatung helfen „Roboter“, um Portfolien auf die Verletzung von Anlagerichtlinien hin zu überwachen und entsprechende Signale zu geben. Wir glauben hier aber an einen hybriden Ansatz, der den Berater einschließt, um gemeinsam mit dem Kunden die richtigen Schlüsse zu ziehen.

Dr. Jasperneite ergänzt: Es gibt immer Sachverhalte, die eine Maschine besser als ein Mensch erledigen kann. Dazu gehört beispielsweise das eben schon erwähnte einhalten von Risikobudgets, denn das ist primär eine mathematische Aufgabe, die intuitiv nur schwer zu lösen ist. Zudem können Kauf- oder Verkaufsprozesse sowie der ständige Abgleich zwischen Kundenportfolios und Musterportfolios zu einem gewissen Grad automatisiert werden. Allerdings ist es mir immer wichtig zu betonen, dass bei uns niemals ein Algorithmus oder eine Maschine unkontrolliert und ungeprüft Transaktionen in Kundenportfolios auslösen kann. Jeden Morgen überprüfen meine Kollegen, ob die Modelle in der Nacht ohne Fehler durchgelaufen sind und plausible Ergebnisse liefern. Wenn Transaktionen vorgeschlagen werden, erfolgt hier eine weitere Plausibilitätsprüfung. Und im Extremfall erlaube ich mir als Chefstratege, auch manuell einzugreifen. Ich nenne ihnen ein Beispiel. Im Januar dieses Jahres waren die Schwankungen und die Korrelationen an den Märkten so gering, dass unser Modell eine weitere, leichte Anhebung der Aktienquote vorschlug. Mathematisch konnte ich diesen Transaktionsvorschlag komplett nachvollziehen. Allerdings waren die Volatilitäten und Korrelationen fast schon aberwitzig gering, so dass nach menschlichem Ermessen eine Korrektur mehr als in der Luft lag. Der Vola-Crash im Februar hat mich dann mit meinem Veto bestätigt.

Herr Kühne, Ihr Angebot haben Sie zusammen mit einem FinTech-Unternhemen auf den Markt gebracht. Welche Erfahrungen konnten Sie dabei sammeln?

Jan Kühne beschreibt die erfolgreiche Zusammenarbeit mit einem FinTech.

Kühne: Unser Angebot Warburg Navigator wird gemeinsam mit dem Berliner FinTech Elinvar GmbH umgesetzt. Elinvar steuert die Technologiekompetenz bei, wir bringen unsere Asset-Management-Kompetenz ein. Für den Kunden bedeutet das, dass er uns als Vermögensverwalter mandatiert und mit der Umsetzung seiner Anlagestrategie betraut. Die Technologie, die die digitale Umsetzung wie Online-Vertragsabschluss oder Kundenportal ermöglicht, kommt von Elinvar. Die Lösung, so wie sie heute am Markt ist, wurde dabei nicht von uns als Werkvertrag in Auftrag gegeben, sondern gemeinschaftlich entwickelt. Dinge wie „Design Thinking“, „agile Entwicklung“, „Minimal Viable Product“ waren hierbei selbstverständlicher Teil der Projektarbeit. Die „Agilität“ konnten wir dabei nicht unsern Mitstreitern von Elinvar überlassen, sondern musste von uns im gleichen Maße eingebracht werden. Zugegeben, eine sehr willkommene Lernkurve.

Herr Dr. Jasperneite, wieviel Mensch und wieviel Warburg steckt dann noch im Navigator?
Dr. Jasperneite: Im Warburg Navigator steckt extrem viel Mensch, auch wenn Algorithmen ihre Berechtigung haben. Aber unsere Algorithmen sind nicht von marktfernen Physikern und Mathematikern programmiert worden, sondern von Kollegen, die seit vielen Jahren für die Anlage großer Summen Verantwortung tragen und seit dem Platzen der Internetblase im Jahr 2000 selbst alle Krisen und Boomphasen als Investor durchlebt haben. Zudem nutzen wir den Algorithmus wie schon erwähnt primär, um Risikobudgets einzuhalten und für eine besonders effiziente Streuung von Risiken zu sorgen. Ebenso wichtig sind aber unsere taktischen Einschätzungen und Überlegungen, die ebenfalls direkt in die Portfoliokonstruktion einfließen und hier einen Mehrwert gegenüber reinen Anlagerobotern liefern. Das ist auch der Grund, warum wir uns ungern als Robo-Advisor bezeichnen lassen, denn wir sind definitiv kein Roboter.

Herr Kühne, die Skepsis der Kunden hinschlich digitaler Produkte, speziell auch im Hinblick auf Datenschutz, ist oft groß. Gerade für Vermögensverwalter ist Vertrauen jedoch von entscheidender Bedeutung. Wie lässt sich dieses in einer digitalen Welt aufbauen?
Kühne: Vertrauensaufbau erfolgt heute durch Nutzung. Die erfolgreichen Internetunternehmen haben dies vorgemacht: Verständliche Benutzerführung, verlässliche Prozesse, wiederholte Anwendung, alltäglicher Gebrauch – nur so fasst der Nutzer Vertrauen. Für Banken im Bereich der digitalen Vermögensverwaltung bedeutet dies, dass sich ihre Angebote an der User Experience messen lassen müssen, die der Nutzer aus anderen Bereichen kennt und erwartet. Die Sicherheit der Daten und der Schutz vor fremdem Zugriff ist eine weitere Grundvoraussetzung. Sicherlich genießen Banken hier einen gewissen Vertrauensvorschuss, da dies eine der Grundtugenden ist – Stichwort Bankgeheimnis – die Kunden mit Banken verbinden. Nur müssen Banken mit diesem Gut auch sehr sorgfältig umgehen. Nachlässigkeiten, die man anderen Marktteilnehmern vielleicht durchgehen lassen würde, dürfen sich Banken nicht erlauben. Auch wenn das in manchen Situationen in einem gewissen Konflikt zur Benutzerfreundlichkeit stehen kann.

Wie werden Big Data und künstliche Intelligenz die Finanzwirtschaft verändern?
Kühne: Big Data ist in der Finanzwirtschaft insofern nichts Neues, da die Analyse einer Vielzahl von Kapitalmarktinformationen und Konjunkturdaten schon lange ein wichtiges Element im Asset Management darstellt. Mit Zunahme der Rechen- und Speicherleistung nehmen die Möglichkeiten zu. Theoretische Konzepte können eher praktisch verprobt, hochpersonalisierte Anlagestrategien umgesetzt werden. Ebenso wird Künstliche Intelligenz und Machine Learning die Güte von Ansätzen wie Mustererkennung und regelbasierte Anlagestrategien weiter erhöhen. Aber auch dies findet in einem evolutionären Prozess statt, disruptive Veränderungen erwarten wir nicht. Im Kontext Big Data wird ferner häufig auf den Datenschatz der Banken hingewiesen. Spätestens mit PSD2 hat der Kunde aber die Hoheit über seine Bankdaten und die Möglichkeit, diese mit anderen zu teilen. Da Kundennutzen dann zu erwarten ist, wenn Daten aus unterschiedlichen Kontexten sinnvoll kombiniert werden, ist noch nicht ausgemacht, wer hier am Ende erfolgreiche Geschäftsmodelle etabliert.

 

Weiterführende Informationen: https://navigator.mmwarburg.de

Bildlizenzen: M.M.Warburg & CO (AG & Co.) KGaA

 

Digitaler Zehnkampf

Unternehmen müssen sich wandeln, denn nie war die Zeit besser geeignet, neue digitale Geschäftmodelle zu etablieren.

Die digitale Evolution nimmt weiter an Fahrt auf und die weltweiten Aus­gaben der Unternehmen für digitale Transformation werden 2018 rund 1,1 Billionen US-Dollar erreichen. Dies sind rund 17 Pro­zent mehr als noch im Vorjahr. Das förderte die aktuelle Studie der Marktanalysten von IDC zutage. Die meisten Investitionen werden laut der Studie getätigt für Anwendungen, Konnektivitätsdienste und Dienstleistungen der Informationstechnik. Die digitale Transformation ist in vollem Gange. Es ist nur noch eine Frage der Zeit, aber es muss schnell gehen. Um diesen Wandel zum Vorteil aller zu gestalten, braucht es Kreativität. Jetzt geht es darum, frische Ideen zu entwickeln, auszuprobieren und umzusetzen. Doch wie werden Unternehmen kreativ?

Eine Schlüsselrolle dabei kommt sicherlich dem „Chief Digital Officer“ (CDO) zu, den unternehmerische Kreativität, ein Händchen für disruptive Technologien und ein gutes Gespür auszeichnen, um die richtigen Köpfe für die Umsetzung neuer Ideen zu finden. Der CDO treibt die digitale Transformation. Er ist zugleich Stratege, Umsetzer, Change-Manager und Impulsgeber. Allerdings: Einen allein gültigen Weg, kreativ die digitale Transformation zu bewältigen, gibt es nicht. Schon gar nicht, wenn auf einen Messias in Form des CDOs gewartet wird. Der stünde auf verlorenem Posten, wenn sich das Unternehmen nicht öffnen, Hierarchien einreißen, Entscheidungswege flexibilisieren, kurz: sich die Unternehmenskultur wandeln würde. Der CDO muss die bestehende Ordnung in Frage stellen, Mitarbeiter und Vorstand für seinen agilen Weg begeistern, er muss Revolutionär und Mediator sein. Netzwerke müssen an die Stelle strenger Hierarchien treten. Dann eröffnen sich neue Chancen für kreative Prozesse im Kontext von Open Innovation (OI), die schnell und agil in neue digitale Geschäftsmodelle münden können. Aber zunächst sollten die inkrementellen Innovationen in Angriff genommen werden.

Zum Beispiel werden sich unsere Arbeitsplätze verändern, das ist sicher. In den nächsten Jahren werden immer mehr neue Technologien und bisher unbekannte Arbeitsweisen in deutschen Unternehmen Einzug halten und unser gewohntes Arbeitsumfeld umkrempeln. Digitalisierung bedeutet, dass sich der Großteil des Unternehmensalltags virtuell abspielt.
In der Konsequenz sollte jeder Arbeitnehmer in seinem Unternehmen Zugang zu den wichtigsten Anwendungen haben – sei es „Customer Re­lationship Management“ (CRM), Bu­siness Intelligence (BI) oder Kom­munikation. Je nach Produkt oder Dienstleistung braucht eine Firma das für sie richtige Tool. Toplink-Geschäftsführer Jens Weller empfiehlt deshalb: „Suchen Sie also nach Lösungen, die sich nahtlos in Ihr Tagesgeschäft integrieren lassen. „Vor allem cloudbasierte Lösungen bieten zahlreiche Vorteile für Unternehmen“, erklärt Weller weiter. Durch die Entkopplung der Daten, Applikationen und Prozesse von physischen Infrastrukturen ergibt sich einerseits größere Flexibilität, wich­tig in einer Zeit, in der immer mehr Menschen von überall Zugriff auf Daten brauchen und gar nicht mehr in Büros arbeiten. Andererseits lässt sich das Daily Business mit cloudbasierten Lösungen aber auch individueller und effizienter nutzen. Auf diese Weise bieten Cloud-Lösungen neben mehr Agilität auch Einsparpotenziale.“

Mehr Informationen:

Wir haben weitere sehr interessante Artikel zum Thema unter anderem aus dem Technologieprogramm „Smart Service Welt“ des Bundesministeriums für Wirtschaft und Energie für Sie zusammengestellt. Klicken Sie einfach hier: Digitaler Zehnkampf

Weitere Disziplinen, um die digitale Transformation in den Griff zu bekommen, sind in Form von Ko­operationen mit Universitäten und Forschungseinrichtungen zu sehen. Der Technologietransfer kann in Form von gemeinsamen Projekten oder mit der Beteiligung an Start-ups beflügelt werden. Zusätzlich sollte eine Art Trendradar im Unternehmen etabliert werden, um neue Technologien zu bewerten und diese eventuell selbst zum Einsatz zu bringen.

Neben diesen wichtigen Weichenstellungen muss sich aber auch einiges in den Köpfen verändern. Einige Unternehmen in Deutschland sind bereits gut für die digitale Transformation und Industrie 4.0 aufgestellt, Sorgen muss sich vor allem der Mittelstand machen. Das größte Problem ist: Der Mittelstand investiert kontinuierlich zu wenig. In der Breite haben mittelständische Unternehmen heute immer noch große Schwierigkeiten, ihr Geschäftsmodell an die Umwälzungen anzupassen, die durch die digitale Transformation entstehen.

Tipps und Tricks

Wir empfehlen einen Dreischritt: Erstens sollten abteilungsübergreifende Think-Tanks gebildet werden, die Ideen für zukünftige Geschäftsmodelle entwickeln. Zweitens sollten Partner aus der IT-Branche gesucht werden, die über ausreichende Referenzen verfügen. Und drittens raten wir an, die Kosten für die IT-Landschaft mit Cloud-Technologien zu senken. Die so freigesetzten Ressourcen könnten wiederum in die Projekte der Think-Tanks fließen. Doch vielfach fehlt dem Mittelstand noch die Bereitschaft, Geschäftsmodelle schnell und grund­legend zu verändern: Unternehmen müssen mutiger sein!

Das Internet ist ein Turbolader für die deutsche Wirtschaft. Die Zeiten waren nie besser, digitale Geschäftsmodelle zu etablieren. Dies haben findige FinTech-Unternehmen zum Anlass genommen, um schnell neue Services rund um den Zahlungsverkehr zu generieren. Auch André M. Ba­jorat, einer der Vordenker der FinTech-Branche und des Digital Bankings, schreibt auf trendreport.de in seinem Gastbeitrag über die aktuell stattfindenden nachhaltigen Veränderungen im Banking und über die Chancen klassischer Banken. Christian Brüseke, General Manager von Avoka, beschreibt die Situation ganz unverblümt: „Die digitale Transformation im Finance-Sektor wird wie die Axt im Walde sein. Während Firmen, die anfassbare Produkte produzieren, noch etwas Zeit haben, hat die Finanzbranche keine.“

Finanzinstitute im Wandel

„Denn das Produkt der Banken ist seit Jahrzehnten bereits digital – Geld besteht letztlich aus Einsen und Nullen. Daher wird, was wir im Zeitungsmarkt gesehen haben, auch im Banking passieren.“ Brüseke fährt fort: „Dort haben E-Commerce-Firmen mit Auto und Immobilien in kürzester Zeit die lukrativsten Bereiche an sich gerissen. Im Banking werden bald neue Player Bereiche wie Kleinkredit, Aktienhandel, Payment & Co. dominieren.“ Dabei haben die Finanzinstitute als wichtiger Knotenpunkt zum Kunden alle Möglichkeiten, um ihr Geschäftsmodell zu transformieren. Banken sollten Ansprechpartner für alle finanziellen Aspekte des Lebens werden.

Und schon wieder entstehen neue Disziplinen in Form von Robotic Process Automation und KI. Die neuen Technologien bergen großes Einsparpotenzial, auch für den deutschen Mittelstand. Doch die Finanzbranche kommt nicht zur Ruhe, eine neue Disziplin muss jetzt gemeistert werden. Banken müssen jetzt dritten Zahlungsdiensteanbietern und anderen Banken Zugriff auf die Kontodaten ihrer Kunden gewähren. Mit der „Payment Service Directive 2“ (PSD2) wird die EU den Wettbewerb im europäischen Zahlungsverkehr fördern und ihn damit sicherer, bequemer und billiger machen. Dabei ändert sich nicht weniger als das gesamte Verhältnis zwischen Bank und Kunde.

von Bernhard Haselbauer

Digital Banking – Deutschland holt auf

Was deutsche Banken noch von australischen und nordamerikansichen Geldhäusern lernen können, erläutert Christian Brüseke, General Manager Avoka GmbH, im Interview mit der Redaktion.

Vor kurzem ist die dritte Ausgabe des Avoka-Reports „Digitaler Vertrieb in Banken“ erschienen. Was sind die wichtigsten Ergebnisse?
Generell kann man sagen, dass sich die Digitalisierung von Bankanwendungen endlich durchgesetzt hat. In allen Ländern und quer durch alle Banksegmente werden immer mehr Produkte digital und vor allem mobil zur Verfügung gestellt. Dabei überrascht mich am meisten, wie stark die deutschen Banken aufgeholt haben. Mittlerweile sind vier von sechs untersuchten Großbanken im sogenannten „Digital Promised Land“ angekommen. Dass die deutschen Institute sich so schnell so weit nach vorne „kämpfen“, hätte ich nicht erwartet. Unsere Studie zeigt zwar, dass die amerikanischen und australischen Banken den europäischen in Sachen digitaler Vertrieb weiterhin ein Stück voraus sind, sie zeigt allerdings auch, dass Europa und speziell die deutschen Finanzinstitute vor allem in Sachen Mobile Banking massiv aufgeholt haben.

Business Banking hat 2017 einen Riesensatz gemacht und die Online-Verfügbarkeit solcher Anwendungen wuchs weltweit um über 200 Prozent. Wie erklären Sie sich das?
In den vergangenen zwei Jahren haben die Banken global sehr viel Zeit und Geld in das Privatkundengeschäft investiert, um dort digitale Produkte anzubieten, die sich der Endkunde wünscht. Ganz einfach weil von dort der größte Druck kommt und dort auch die größte Wechselbereitschaft besteht. Durch diese einseitige Fokussierung sind das Onboarding für Firmenkunden und die entsprechenden Business-Anwendungen aus dem Blick­feld geraten. Mittlerweile haben die Banken aber erkannt, wie wichtig und gewinnträchtig die Digitalisierung des Firmenkundengeschäftes ist, und fangen an, hier ihre Expertise auszubauen. Übrigens sind die 200 Prozent eher irreführend, da die Institute von einem relativ geringen Status quo gestartet sind. Spannend wird der Zuwachs in diesem Jahr sein, denn dann zeigt sich, ob dies nur ein Strohfeuer war oder eine nachhaltige Entwicklung ist.

Weitere Informationen zur Studie „Digitaler Vertrieb in Banken“ finden Sie hier: https://www.avoka.com/portfolio-items/white-paper-2018-state-of-digital-sales-in-banking-report/

Beim Thema mobiles Produktangebot für Privatkunden lagen die europäischen Banken 2016 noch vor Nordamerika. Wie kommt es, dass Europa 2017 stagnierte und die Amerikaner vorbeizogen?
Die Europäer waren der Meinung, dass sie mit ihren neuen mobilen Angeboten genug getan haben und sich auf den Lorbeeren ausruhen können. Aber das ist eine gefährliche Einstellung. Der Bankenmarkt kennt über kurz oder lang keine Grenzen mehr und immer mehr FinTechs, aber auch ausländische Banken werden in andere Länder expandieren. Bestes Beispiel sind Goldman Sachs, die mit ihrer Online-Banking-Plattform „Marcus“ jetzt in Deutschland ins Privatkundengeschäft einsteigen wollen. Hinzu kommt, dass es gerade im mobilen Umfeld keinen Stillstand gibt. Was gestern als Produkt noch top war, kann schon morgen alt aussehen. Die nordamerikanischen Institute haben da die bessere Einstellung: Sie sehen Banking als sich ständig verändernden Prozess, investieren kontinuierlich, ruhen sich nicht aus und entwickeln immer neue Features und Anwendungen. Davon profitieren sie jetzt.

Wagen wir einen Blick ins Jahr 2023: Wo stehen die deutschen Banken und vor allem warum?
Fünf Jahre sind natürlich eine lange Zeit. Aber wenn die Banken hier ihre Bemühungen beim Thema Digital Sales nicht drastisch hochfahren, werden wir viele Verlierer sehen. FinTechs und vor allem ausländische Banken werden sich etabliert haben; die Margen der deutschen Banken schrumpfen; es wird weitere Fusionen geben, ja geben müssen. Kurzum, der Markt wird heterogener und die deutschen Banken verlieren Marktanteile. Das liegt, wenn sich nichts ändert, vor allem an drei Punkten. Erstens: Die deutschen Banken sind nach wie vor nicht in der Lage und nicht willens, den Kunden in den Mittelpunkt ihrer Aktivitäten zu stellen. Sie sehen das Thema Digitalisierung vor allem aus der Perspektive der Prozessoptimierung, anstatt den Kunden in den Vordergrund zu stellen. Zweitens: Die hiesigen Banken geben sich zu schnell mit dem zufrieden, was sie schon erreicht haben. Dass sie beispielsweise in Sachen Kundenservice noch viel mehr tun können und investieren müssen, erkennen sie erst langsam. Drittens: Die Bedeutung von Bargeld nimmt ab und gleichzeitig steigt die Akzeptanz und vor allem die Nutzung von PayPal, Google Pay oder Apple Pay. Davon profitieren FinTechs und E-Commerce-Firmen wie Amazon & Co., die näher am Kunden sind und schneller neue attraktive digitale Finanz-Lösungen und -Apps auf den Markt bringen als die Banken.

Abschließend: Welchen Tipp geben Sie den Banken, um mit internationalen Wettbewerbern und den FinTechs mitzuhalten?
Nicht nachzulassen, was die Digitalisierung betrifft und gleichzeitig verstehen, dass die Transformation der Prozesse nicht das Endziel darstellt, sondern nur Mittel zum Zweck ist. Der Fokus muss auf den Bereichen Kundenzufriedenheit und positives Erleben liegen. Die Institute müssen sich immer wieder die Frage stellen: „Was will und braucht der Kunde?“ und nicht „Welche Produkte und Abläufe sind für die Bank am relevantesten?“ Das ist genau das, was beispielsweise die Australier erkannt haben und besser machen. Sie trauen sich mehr, probieren mehr aus und da darf auch mal was schief gehen. Darüber hinaus müssten deutsche Banken mehr mit ihren Kunden zusammenarbeiten. So kann man neue Prozesse und Produkte durchaus mit Kundenfeedback entwickeln und am Kunden ausprobieren. Die Online-Bank N26 hat das getan und schauen Sie, wo die heute stehen.

Weitere Informationen unter:
www.avoka.com

Digital Finance

Vertrauen: In einer immer schnelllebigeren Zeit besinnen Banken sich auf eine ihrer Grundtugenden, um am Markt zu bestehen.

Stau und dichter Verkehr können schon ganz schön anstrengend sein. Ist man gar nicht mehr gewohnt, diese gebotene Langsamkeit. Moderne Technologien haben alle alltäglichen Prozesse beschleunigt. Wir erkaufen uns Zeit in Form von Geschirrspülern, Wasch­maschinen und Mikrowellen, Staubsauge- und Rasenmährobotern oder durch einen Breitbandanschluss, Onlineshopping und Expresslieferungen. Noch explizierter wird dies in der immer stärker wachsenden Sharing Economy, wo keine Produkte mehr, sondern nur Zeit mit Produkten erworben wird. Ein Stau erscheint da wie ein Artefakt aus längst vergangener, stehen gebliebener Zeit.

Kein Wunder, dass Zeit somit auch zum treibenden Faktor in der Finanzwelt geworden ist. „In Zeiten, in denen man mit dem Smartphone von unterwegs im Internet einkaufen kann und die Bestellung mitunter sogar am selben Tag noch zu Hause in Empfang nehmen kann, ist es logisch, auch die Vorteile von Online- und mobilen Zahlungslösungen zu nutzen“, meint Christian Schollmeyer, der als Referent beim Deutschen Sparkassen- und Giroverband die Akzeptanzstrategie sowie die Geschäftsfelder Online- und mobile Zahlverfahren betreut. Kein Wunder also, dass die Zahl der Kartenzahlungen im Handel langsam aber stetig steigt. „So hat sich etwa die Anzahl der girocard-Transaktionen von 1,46 Mrd. im Jahr 2007 zu 3,18 Mrd. im Jahr 2017 mehr als verdoppelt. Zuletzt gab es bei den Transaktionszahlen Rekordzuwächse von 13,1 Prozent im Jahr 2016 im Vergleich zu 2015 und 8,7 Prozent Zuwachs im Jahr 2017 im Vergleich zu 2016. Damit hat der Wandel nochmals deutlich Fahrt aufgenommen“, referiert er. „Ein Treiber dafür ist sicher das kontaktlose Zahlen.“

„Die Kunden nehmen das kontaktlose Bezahlen mit girocard so schnell an, wie keine andere Funktion der girocard jemals zuvor“, verwertet Ingo Limburg, Leiter Marketing und PR girocard bei Euro Kartensysteme, gerne die Vorlage. Obwohl im April erst rund 35 Millionen girocards über die NFC-Funktion verfügten, lag bei den Karten der Sparkassen sowie der Volksbanken Raiffeisenbanken der Anteil der kontaktlosen Zahlungen bereits bei jeweils rund 10 Prozent. Damit hat sich der Anteil der kontaktlosen Transaktionen seit Dezember 2017 verdoppelt. „Und das sogar ohne groß angelegte Werbemaßnahmen der Banken und Sparkassen“, freut er sich über den Paradigmenwechsel vom Stecken zum Auflegen und kündigt gleich den nächsten Schritt in der Evolution des Bezahlens an: „Mit der digitalen girocard, die Kunden mit ihrem NFC-fähigen Android-Smartphone verbinden können, können Kunden durch Auflegen des Smartphones an allen girocard-kontaktlos-Akzeptanzstellen schnell und bequem zahlen.“

Hierzu gehören auch Supermärkte, Oasen der Zeitersparnis, befreien sie uns doch vom Gang zum Bäcker, Metzger oder Obsthändler. Wäre es nicht schön, wenn es auch für die durch FinTechs entstehenden immer vielfältiger werdenden Finanzprodukte eine Art Supermarkt gäbe? Der FinTech-Markt, der ohnehin schon seit einigen Jahren für Wirbel sorgt, hat seit Inkrafttreten der PSD2 zusätzlichen Rückenwind vom Gesetzgeber erhalten. Banken sind jetzt verpflichtet, Drittanbietern Zugang zu Informationen über Kundenkonten zu gewähren, sofern der Kunde dem zustimmt. „Die Bank als Kontoanbieter wird am digitalen Zugang zum Kunden austauschbar. Damit intensiviert sich der Wettbewerb an der Kundenschnittstelle“, schildert Oliver Dlugosch von NDGIT die Drohkulisse für etablierte Geldhäuser. Dass die deutschen Banken, wenn sich nichts ändert, Marktanteile verlieren, prophezeit auch Christian Brüseke, General Manager Dach von Avoka Technologies. Ein Grund: „Die deutschen Banken sind nach wie vor nicht in der Lage und nicht willens, den Kunden in den Mittelpunkt ihrer Aktivitäten zu stellen.“ Dabei sind Open-Bank-Szenarien die Kehrseite der PSD2. Banken können zu einer Plattform werden, Open-APIBanken zu Supermärkten für Finanzprodukte machen. Bei diesem Ansatz unterstützt NDGIT die Banken. Wollen wir den Supermarkt-Vergleich aufrechterhalten, so fungiert das Unternehmen als Großhandel der besten FinTech-Funktionen. „APIs unserer Partner-FinTechs kann man innerhalb weniger Stunden anbinden, dank standardisierter Schnittstellen, Dokumentationen und Testumgebungen“, betont Dlugosch auch hier die Geschwindigkeit. Auf dem API-Marktplatz fin­den sich die verschiedensten Services – vom Finanz-Scoring bis zur Vorsorge-Analyse, von der Video-Legitimierung bis zur Robo-Advisory – um nur einige der Möglichkeiten aufzuzählen.

Deutsche Banken sind nicht in der Lage, den Kunden in den Mittelpunkt zu stellen.

„Wir sind definitiv kein Roboadvisor“, betont Dr. Christian Jasperneite, CIO von M.M.Warburg & Co. Die Rede ist dabei vom Warburg Navigator, der Ende letzten Jahres an den Start ging. „Wir glauben hier an einen hybriden Ansatz, der den Berater einschließt, um gemeinsam mit dem Kunden die richtigen Schlüsse zu ziehen“, ergänzt ihn sein Kollege Jan Kühne, seines Zeichens Leiter Digital beim auf eine lange Tradition zurückblickenden Vermögensverwalter. Das Angebot wird gemeinsam mit einem Berliner FinTech umgesetzt. „Elinvar steuert die Technologiekompetenz bei, wir bringen unsere Asset-Management-Kompetenz ein“, begründet er die Zusammenarbeit. Ein Begriff, der in Zusammenhang mit FinTechs und einer kurzen Time-to-Market immer wieder fällt, ist Agilität, die auch hier „selbstverständlicher Teil der Projektarbeit war“.

Nicht nur der Faktor Zeit

Die erfolgreichen Internetunternehmen haben es vorgemacht: Verständliche Benutzerführung, verlässliche Prozesse, wiederholte Anwendungen, alltäglicher Gebrauch – nur so fasst der Nutzer Vertrauen. „Sicherlich genießen Banken hier einen gewissen Vertrauensvorschuss, da dies eine der Grundtugenden ist – Stichwort Bankgeheimnis – die Kunden mit Banken verbinden“, meint Kühne. Sie stehen jetzt vor der schwierigen Aufgabe, das lang gewachsene Verhältnis in digitale Angebote zu überführen. „Für Banken im Bereich der digitalen Vermögensverwaltung bedeutet dies, dass sich ihre Angebote an der User Experience messen lassen müssen, die der Nutzer aus anderen Bereichen kennt und erwartet“, führt Kühne hierzu aus. „Die Sicherheit der Daten und der Schutz vor fremdem Zugriff ist eine weitere Grundvoraussetzung.“

Ingo Limburg kündigt das kontaklose Bezahlen per App über ein NFC-fähiges Smartphone an.

Ingo Limburg kündigt das kontaklose Bezahlen per App über ein NFC-fähiges Smartphone an.

„Dass ein System sicher ist, setzen die Kunden bei allem, was von der eigenen Bank oder Sparkasse kommt, schlicht voraus“, ist auch Ingo Limburg von Euro Kartensysteme überzeugt. Christian Schollmeyer vom Deutschen Sparkassen- und Giroverband erhärtet diese Aussagen und zitiert hierzu aus einer aktuellen Studie: „Laut GfK haben 90 Prozent der Kunden großes oder sehr großes Vertrauen in die Bezahlverfahren der Banken und Sparkassen.“ Er ist der Ansicht, dass sich dies auch in der Nutzung der Kontaktlos-Technologie niederschlägt, und Ingo Limburg geht sogar so weit, es als eine „Grundvoraussetzung“ zu betiteln. Um das gewachsene Vertrauen auch bei der Payment-Lösung mit dem Smartphone nicht zu gefährden, soll auch hier ab 25 Euro wie gewohnt eine PIN eingegeben werden, die im girocard-System lediglich verschlüsselt übertragen wird.

Klaus-Peter Bruns, Vorstands­vorsitzender der Fiducia & GAD IT AG, möchte sich diesen Vertrauensbonus mit einem für Banken eher unkonventionellen Geschäftsmodell zunutze machen. Mit GenoSharing.com soll es Kunden erleichtert werden, selten benötigte Waren und Güter mit anderen Menschen in der Region über eine Plattform gemeinschaftlich zu nutzen. „Gerade Leihen und Verleihen setzt gegenseitiges Vertrauen voraus“, erläutert er. Auf einer digitalen Plattform, wo man sich in der Regel (noch) nicht persönlich kennt, ist dieses allerdings nicht vorhanden. Hier treten die VR-Banken als Vertrauensbroker in Erscheinung und machen auf lokaler Ebene „den Weg frei für die urgenossenschaftliche Idee des kollektiven Ko-Konsums“.

Stau und dichter Verkehr können schon ganz schön anstrengend sein. Vor allem als Mitglied der wachsenden Sharing Economy, wo keine Produkte, sondern nur Zeit mit Produkten erworben wird. Ein Stau erscheint da wie ein Artefakt aus längst vergangener, stehen gebliebener Zeit. Doch allem Anschein zum Trotz läuft sie kostbar weiter.

von Andreas Fuhrich

Im Netz, da sind die Räuber

Im Netz, da sind die Räuber

Die paraguayische Grenzstadt Ciudad del Este liegt im Dreiländereck zwischen Paraguay, Ar­gentinien und Brasilien. Dort ist nicht viel vom südamerikanischen Flair vieler Reiseprospekte zu erkennen. Denn die Stadt lebt vor allem vom Schmuggel. Also kein Ort, an dem sich Touristen unbedingt aufhalten müssen. Im vergangenen Jahr machte Ciudad del Este mit einer anderen Geschichte auf sich aufmerksam und gelangte so über die Nachrichten bis in die deutschen Wohnzimmer. Hintergrund waren schwer bewaffnete Räuber, die sich den Weg zum Tresor eines Geldtrans­portunternehmens freischossen und sprengten. Von mehreren Millionen US-Dollar Beute war die Rede.

Die Räuber fuhren im wahrsten Sinne des Wortes schwere Geschütze für ihren Raubzug auf und hinterließen eine Schneise der Verwüstung mit wilder Schießerei und Verfolgungsjagd. Weitaus ruhiger und präziser gehen demgegenüber moderne Diebe vor. Deren Ziel ist nicht das Erstürmen von Tresorräumen, sondern der leise und zugleich lohnende Raubzug – ohne Trommelfeuer und eher im Verborgenen. Gemeint sind die zahllosen Hackerangriffe und Diebeszüge in allen Branchen. Professionelle Angriffe, sogenannte „Advanced Persistent Threats“, treffen heutzutage nicht nur Unternehmen, sondern auch Regierungen und immer häufiger auch kritische Infrastrukturen, wie Netzbetreiber, Flughäfen oder Banken. Für die Kriminellen nach Auffassung des Ehrenvorsitzenden des Vorstandes des Frankfurter Ins­tituts für Risikomanagement und Regulierung e. V. (FIRM), Wolfgang Hartmann, ein lukratives Geschäft. Die Vorteile für moderne Gangster liegen seiner Meinung nach auf der Hand: „Die potenziellen Gewinne von Kriminellen durch Cybercrime sind hoch, die Finger muss man sich nicht mehr schmutzig machen und auch nicht Leib und Leben Dritter gefährden.“ Und Hartmann prognostiziert: „Es ist nur noch eine Frage der Zeit, bis eine Großbank ihre Geschäftstätigkeit durch Ausfälle im Zuge eines Cybercrime-Angriffs einstellen muss.“

Gefragt: Ganzheitliche Sicht, ganzheitliches Risikomanagement

Nun ist das Thema Cybergefahren kein ganz neues mehr und doch erstaunt es immer wieder, wie selbst große Konzerne mit ausgewiesenen Informationssicherheitsprozessen und Risikomanagement- sowie Complianceabteilungen in die Falle von Hackern tappen. Die Bandbreite der Einfallstore für digitale Gauner, Spione und Saboteure ist groß – von mangelnden Sicherheitsprozessen und -updates über veraltete und offene Systeme bis hin zum Social Engineering.

Apropos Social Engineering. Was in der Praxis häufig unterschätzt wird, ist die Phase, in der Täter Informationen über ihre Zielobjekte sammeln. Hierbei fallen in der Regel nur bedingt Spuren an. In der Praxis existieren hier höchst unterschiedliche Akteure. Exemplarisch seien hier die Desert Falcons genannt. Eine Gruppe von Cyber­söldnern, die vom Nahen Osten aus agieren und eine ganze Reihe verschiedener Methoden nutzen. So hat die Gruppe vielfältige Erfahrungen im Bereich des Social Engineerings, verwendet Malware für Windows-Systeme, mobile Malware für Android-Geräte, Infektionsvektoren, einschließlich Phishing-E-Mails, gefälschter Webseiten und falscher Social-Media-Konten. Zu den Opfern zählen sowohl Militär und Regierung als auch Finanz- und Handelsunternehmen, Forschungs- und Bildungsinstitutionen, Energieunternehmen und viele weitere Branchen. So griffen im Jahr 2016 die Desert Falcons die Android-Smartphones von israelischen Soldaten an, indem sie zuvor eine aufwendige Social-Engi­neering-Kampagne gestartet hatten. Konkret legten die Angreifer bei Facebook gefälschte Profile von jungen Frauen an.

Anschließend nahmen die nicht real existierenden Frauen über die Facebook-Messenger-Funktion Kontakt auf und bauten über einen recht langen Zeitraum ein Vertrauensverhältnis auf. Ganz am Ende wurde auf den Android-Geräten ein Spionageprogramm übermittelt. Ein weiteres Beispiel beschreibt Timo Steffens, der seit vielen Jahren Hackerangriffe analysiert, in seinem Buch „Auf der Spur der Hacker“: Die Hacker-Gruppe Lotus Blossom verschickte im Jahr 2016 gefälschte Einladungen für eine Sicherheitskonferenz des Sicherheitsunternehmens Palo Alto. Empfänger waren primär Teilnehmer aus den vergangenen Jahren. Angehängt war ein Word-Dokument, das eine bekannte Schwachstelle in Windows ausnutzte. Wenn der Empfänger das Dokument öffnete, wurde unbemerkt der Emissary-Trojaner installiert.

Deutlich wird in beiden Fällen, dass die Ursache für den erfolgreichen Angriff im Ausnutzen eines Vertrauensverhältnisses lag. Eine rein technische Maßnahme hätte den Angriff nur bedingt verhindern können.

Silostrukturen als Einladung für Täter

In der Praxis zeigt sich, dass viele Unternehmen auf eine komplexe Verflechtung aus eigenen Lösungen und Standardsoftware-Programmen zurück­greifen, die über Jahre gewachsen ist. Dadurch entstehen viele Insellösungen und Silos, die keine einheitliche Datenerfassung, Dokumentation und Interpretation ermöglichen. Für Risikomanager und Entscheider lassen sich daraus keine (oder nur schwer) valide Informationen zur Unternehmens­steuerung ziehen. Mit anderen Worten: Das Unternehmen und seine Führungsmannschaft bewegen sich im Blindflug durch die Risikowelt.

Wichtig ist es daher, bessere Vorhersagen treffen zu können. Dies erscheint umso dringlicher, als neue Technologien – wie Blockchain, Virtual Reality oder Machine Learning – immer mehr Branchen durchdringen. Was es bedeutet, ein Unternehmen heute vorausschauend zu steuern, erklären Günther Angerbauer und Markus Müller, Geschäftsführer der calpana business consulting GmbH, wie folgt: „Infolgedessen könnten die IIoT-basierten Risiko-Management-Systeme eine raschere Entscheidungsfindung aufgrund aktuellerer und weitreichenderer Daten ermöglichen.“

Über den Autor:

Frank Romeike zählt international zu den renommiertesten und führenden Experten für Risiko- und Chancenmanagement. Er ist Gründer des Kompetenzzentrums RiskNET – The Risk Management Network sowie Geschäftsführer und Eigentümer der RiskNET GmbH.

Fortgeschrittene Methoden und Technologien, wie etwa stochastische Simulationsverfahren oder Blockchain, ermöglichen eine bessere Antizipation von potenziellen Angriffsszenarien und Risiken. „Ähnlich wie beim Einsatz des IIoTs könnte diese Technologie die Fehler- und Manipulationshäufigkeit bei Datentransaktionen reduzieren“, so die Experten von calpana.

Mitarbeiter nicht vergessen

Doch bei aller Technikgläubigkeit vieler Organisationen wird der wesentliche Schlüssel für mehr Sicherheit vielfach vernachlässigt: der eigene Mitarbeiter. Informationssicherheit und Risikomanagement sind nur so gut wie die Menschen, die sie leben. Gleiches zählt für Mitarbeiter, die mit dem eigenen Smartphone im Unternehmen hantieren, filmen, Daten kopieren oder unachtsam mit sensiblen Unternehmensinformationen umgehen. Social Engineering, Hackerangriffe oder Spionagefälle in Unternehmen beweisen, dass Angreifer diese Schwächen für sich zu nutzen wissen.

Hier hilft ein Blick in die Luftfahrt, bei der ein gelebtes Risiko- und Krisenmanagement auf eine lange Historie verweisen kann. Hochtechnische Navigations- und Frühwarnsysteme und ausgefeilte Risikomanagement-Systeme haben zu einer hoch entwickelten Risikokultur und einem exzellenten Sicherheitsniveau geführt. Piloten üben im Flugsimulator den richtigen Einsatz von Risikomanagement-Methoden und die adäquate Reaktion in Krisen. Der Flugsimulator stellt eine realitätsnahe Trockenübung dar und vereint Elemente aus Kreativitäts-, Szenario- und Simulationstechniken.

Diese Erkenntnisse sollten auch im Bereich der Informationssicherheit beherzigt werden. Denn die neuen Räuber sind leise und im Netz.

Sustainable Development 2018

Aus dem Zusammenspiel von Digitalisierung und Nachhaltigkeit erwachsen smarte, grüne Lösungen.

Längst reichen schöne Worte und Lippenbekenntnisse nicht mehr aus – viele Bürger und Verbraucher wollen Taten sehen. Die Unternehmen geraten damit unter Zugzwang, denn sie sollen nicht nur nachhaltig handeln, sondern nachhaltiges Handeln auch belegen.
Die gute Nachricht für die Unternehmen lautet: Verbraucher sind bereit, tiefer ins Portemonnaie zu greifen, um nachhaltige Produkte zu kaufen. Die schlechte Nachricht lautet: Immer mehr Verbraucher sind geneigt, Unternehmen für ihr Verhalten abzustrafen.

Zugleich wächst die Erwartungshaltung, dass Unternehmen sich verantwortungsvoll zeigen und Nachhaltigkeit fördern. Laut einer Studie des Meinungsforschungsinstituts Nielsen aus dem Jahr 2015, in der über 30 000 Verbraucher in 60 Ländern befragt wurden, gaben zwei Drittel der Befragten an, bereit zu sein, mehr Geld für nachhaltige Produkte auszugeben.
Kaufentscheidungen seien davon beeinflusst, ob ein Unternehmen für gesellschaftliche Werte in seinem Handeln stehe und Umweltaspekte berücksichtige. Fast zeitgleich belegte eine Untersuchung von Cone-Communications, dass 91 Prozent der Verbraucher in den wichtigsten Industriestaaten von den Unternehmen verlangten, soziale und ökologische Probleme anzugehen. Welche Folgen die vermeintliche oder reale Missachtung sozialer und ökologischer Aspekte für die Unternehmen haben kann, zeigte eine Untersuchung von Globe Scan und BBMG, bei der rund 16 000 Personen in 16 Ländern in sowohl städtischen als auch ländlichen Gebieten befragt wurden: 26 Prozent der Befragten gaben an, sie hätten Unternehmen in der Vergangenheit für ihr Verhalten belohnt, allerdings sagten 28 Prozent, sie hätten die Firmen für ihr Verhalten abgestraft. Dem entsprach ein niedriges Vertrauen vor allem zu internationalen Konzernen, das weitaus geringer als etwa zu Forschungs- und Bildungseinrichtungen, zu Landsleuten, Wohlfahrtsorganisationen, NGOs oder der UNO war und welches nur knapp über dem Vertrauen in die Presse oder die nationale Regierung lag. Die Unternehmen sind also gefordert, etwas zu tun, wenn sie nicht Absatzmärkte verlieren möchten und an Umsatz und Rendite einbüßen wollen. Doch nicht nur die Erwartung der Verbraucher spielt bei den Betrachtungen eine Rolle: Auch die Politiker haben das Thema „Nachhaltigkeit“ entdeckt und auf nationaler wie auf europäischer Ebene Aktionspläne verabschiedet. So beauftragte die EU-Kommission 2016 ein Expertengremium, Ideen für eine nach­haltige Finanzstrategie zu formulieren.

In dem im März dieses Jahres vorgestellten Aktionsplan, der auf den Anregungen der Experten basierte, wird eine „EU-Nachhaltigkeits-Taxonomie“ gefordert, die einheitliche Definitionen für nachhaltige Investitionen liefern sowie Leitlinien für Aktivitäten formulieren soll, die als klimaschützend und umwelt- bzw. sozialverträglich gelten. Konkret verlangt werden die Ausrichtung von Kapitalströmen „in nachhaltigere Investitionen“, die Berücksichtigung finanzieller Risiken aufgrund von Klimawandel, Umweltzerstörung und sozialen Ungerechtigkeiten im Risikomanagement und „mehr Transparenz und langfristiges Handeln“ von Finanzmärkten und Unternehmen.

Lieferketten mit der Blockchain-Technologie abbilden

Hier kommt die Digitalisierung ins Spiel, denn digitale Lösungen sorgen für eben jene Transparenz, die von Finanzmärkten und Unternehmen erwartet wird. Beispiel die Blockchain-Technologie: Es handelt sich hierbei um verteilte, fälschungssichere Datenstrukturen, mit deren Hilfe sich Transaktionen abbilden lassen – chrono­logisch korrekt, nachvollziehbar und unveränderlich. Die Blockchain-Technologie kann eingesetzt werden, um Eigentumsverhältnisse sauber zu dokumentieren, aber auch um Lieferketten entlang bestimmter Produkte abzubilden. Davon betroffen können Produkte sein, deren Nachhaltigkeit besonders betont werden soll, etwa das in Wolfsburg oder Stuttgart produzierte Auto, bei dem der Nachweis erbracht werden soll, dass alle Komponenten recyclebar sind und in den Produktionskreislauf einfließen. Oder aber Produkte wie Diamanten, bei denen der Nachweis der sauberen und sozial verträglichen Schür­fung wichtig ist – Stichwort Blutdiamanten.

Cloudbasierte Plattform für Nachhaltigkeit

Jörg Walden, CEO und Gründer der iPoint-systems GmbH, sieht mit seiner Lösung, dem iPoint SustainHub, den Zugang zur Lieferkette für „schwarze Schafe“ zunehmend erschwert. Bei dem iPoint SustainHub handelt es sich um eine universell nutzbare cloudbasierte Plattform, die einen Zugang zu unterschiedlichen Applikationen im Bereich Nachhaltigkeit und Compliance erlaubt. „Um diesen Ansatz hochgradig automa­tisiert durchzuführen und gleichzeitig Nachhaltigkeitspotenziale neuer Ge­schäfts­modelle über den gesamten Lebenszyklus zu erschließen, sind mög­lichst durchgängig digitale Modelle not­wendig“, erläutert Walden. Angesichts der hoch individualisierten Produkte und der „Heterogenität von Zulieferern und Fertigungsteilen“ benötige man die Digitalisierung der Prozesse.

„Komplexen Energie­markt darstellen“

Ähnlich sieht es der Firmenchef des Online-Energiebeschaffungsportals enPortal Clemens Graf von Wedel, der aber auch den pekuniären Nutzen für die Unternehmen betont: „Die Digitalisierung vereinfacht Prozesse, indem handelnde Partner vernetzt werden sowie Austausch und Verarbeitung von Daten automatisiert erfolgen. Das führt zu erheblichen Einsparungen bei den eingesetzten Material- und Personalressourcen bei gleichzeitig erhöhter Qualität und Prozessgeschwindigkeit.“ Ziel des Portals, in dem über zehn Jahre Entwicklungsarbeit stecken, war es nach Worten von Wedels, „den komplexen Energiemarkt in einem cloudbasierten Handelsmarktplatz darzustellen und maximalen, fairen Wettbewerb unter den zahlreichen Lieferanten zu ermöglichen“. Die Plattform entwickle sich inzwischen auf der Grundlage von Kunden- und Lieferantenanforderungen weiter. 

von Dr. Ralf Magagnoli

Forschung für die vernetzte Gesellschaft

Die TREND-REPORT-Redaktion sprach mit den Vordenkern und Gründern des Weizenbaum-Instituts über ihre Forschungsgruppen und dringliche Fragen im Kontext einer vernetzten Gesellschaft.

 

Im Gespräch mit Prof. Dr.-Ing. Norbert Gronau, Universität Potsdam

Herr Prof. Gronau, was ist Ihr Forschungsbereich?
Betriebliches Wissensmanagement, dazu gehört auch Weiterbildung, Trai­ning on the Job und E-Learning sowie die Gestaltung von wettbewerbsfähigen Architekturen industrieller Informationssysteme im Bereich Industrie, Handel, Dienstleistung und öffentlicher Sektor.

Das Ganze erforschen wir mit über 40 Mitarbeitern in verschiedenen Gruppen. Zu meinem Forschungsschwerpunkt gehört auch das Forschungs- und Anwendungszentrum Industrie 4.0 in Potsdam, das vollständig autonome Industrie-4.0-Prozesse auf der Basis des verfügbaren Stands an Hardware, Software und intelligenter IoT-Technik anbieten und für verschiedene Branchenszenarien konfigurieren kann.

Welche Fragen stehen im Fokus der Forschungsgruppe „Bildung und Weiterbildung in der digitalen Gesellschaft“?
Insbesondere, wie im Zeitalter der Digitalisierung die zukünftige individuelle und prozessnahe Qualifizierung von Mitarbeitenden aus­sehen muss. Wie können geeignete Lehr-Lern-Szenarien entwickelt und erprobt werden, u. a. in unserem Digitallabor, und wie sehen digitale Selbst­lernangebote aus?

Um wirtschaftliche Qualifizierungsangebote zu machen und um zielgerichtet den Kompetenzbedarf zu befriedigen, sind Metho­den zur Ermittlung des individuellen Weiterbildungsbedarfs zu ent­wickeln.

 

Herr Prof. Gronau, vielen Dank für das Gespräch.

 

Weiterführende Informationen:
https://vernetzung-und-gesellschaft.de/

 

Forschung für die vernetzte Gesellschaft

Die TREND-REPORT-Redaktion sprach mit den Vordenkern und Gründern des Weizenbaum-Instituts über ihre Forschungsgruppen und dringliche Fragen im Kontext einer vernetzten Gesellschaft.

 

Im Gespräch mit Prof. Dr. Axel Metzger, HU Berlin

Herr Prof. Metzger, womit beschäftigen Sie sich in Ihrer Forschungsgruppe „Daten als Zahlungsmittel“?
Aktuell wird über einen Richtlinienvorschlag verhandelt, der Daten als Gegenleistung von Verträgen regeln könnte, bei denen der Verbraucher digitale Inhalte erwirbt. Wir beteiligen uns an diesem Gesetzgebungsvorhaben durch konkrete Stellungnahmen und Formulierungsvorschläge.

Jenseits der Tagesaktualität denken wir über die Frage nach, wie die Selbstbestimmung der Verbraucher auf den digitalen Märkten, insbesondere auch im Hinblick auf ihre Daten, gestärkt werden kann. Verbraucher äußern zwar immer abstrakte Sorgen über den Schutz ihrer Daten, verhalten sich dann aber unvorsichtig. Hier setzen wir mit einem interdisziplinären Forschungsdesign von Juristen, Psychologen und Wirtschaftsinformatikern an.

Welche Strategie verfolgt die Europäische Kommisson mit dem „digitalen Binnenmarkt“?
Sie verfolgt damit ganz unterschiedliche Regelungsziele von der Reform des Urheberrechts über das Vertragsrecht für digitale Inhalte bis zu neuen Regelungen über den Zugang zu öffentlichen und privaten Daten. Auch wenn manches unausgegoren und wenig kohärent wirkt, so ist der Kommission doch zu bescheinigen, dass sie wesentlich agiler auf die Herausforderungen durch Digitalisierung und Vernetzung reagiert als der deutsche Gesetzgeber.

Kritisch ist die einseitige Fokussierung auf die wirtschaftlichen Aspekte, die in den begrenzten Kompetenzen der EU begründet ist.

 

Herr Prof. Metzger, vielen Dank für das Gespräch.

 

Weiterführende Informationen:
https://vernetzung-und-gesellschaft.de/

 

Vertrauensbroker in Zeiten der Share Economy

Gastbeitrag von Klaus-Peter Bruns, Vorstandsvorsitzender der Fiducia & GAD IT AG

Die Share Economy setzt kollektive Nutzung an die Stelle individuellen Eigentums: Temporärer Gebrauch steht vor dauerhaftem Besitz. Dieses Credo greift die Genossenschaftsidee aus dem 19. Jahrhundert auf und formuliert sie für die digitale Ära neu. Mit dem Unterschied allerdings, dass man sich in früheren Genossenschaften noch persönlich kannte. Heute jedoch handelt es sich um virtuelle Kollektive, die sich digital zu Communitys zusammenschließen.

Wie sich der genossenschaftliche Grundgedanke in digitalen Plattformen manifestiert, schildert Klaus-Peter Bruns.

Persönlich kennt man sich in solchen Communitys normalerweise nicht – gleichwohl müssen alle einander vertrauen. Es ist also ein Partner nötig, der für gegenseitiges Vertrauen sorgt. VR-Banken sind dazu prädestiniert, da sie selbst Gemeinschaften auf Gegenseitigkeit sind. Wie sie ganz konkret diese Rolle eines Vertrauensbrokers ausfüllen können, veranschaulicht die neue Verleih-Plattform GenoSharing.com, die noch im laufenden Jahr in die „Family & Friends“-Testphase geht. Mit GenoSharing.com erhalten Nutzer künftig die Möglichkeit, über eine vertrauenswürdige Plattform das nachhaltige Partizipationsmodell der Share Economy zu nutzen.

Digitale Plattformangebote wie GenoSharing.com sind von großer Bedeutung für die Wettbewerbsfähigkeit der Genossenschaftsbanken. Denn sie zeigen, inwieweit unkonventionelle Geschäftsmodelle ihre Wertschöpfung intensivieren können. Beispielsweise arbeitet die Fiducia & GAD momentan an einer überregionalen Plattform, mit der VR-Banken künftig auch für bankfremde Ökosysteme als Vertrauensbroker im digitalen Raum agieren können – etwa für Online-Portale von Stadtwerken, lokalen Tauschbörsen oder digitalen Bürgerangeboten.

Eine solche übergreifende Drehscheibe versetzt Genossenschaftsbanken dann in die Lage, ihre traditionelle Stärke der regionalen Verwurzelung auch im digitalen Zeitalter in einen Wettbewerbsvorteil umzumünzen – und zwar durch noch mehr Kundennähe.
Das Plattformkonzept der Fiducia & GAD ermöglicht den VR-Banken überdies, den digitalen Wandel in ihrer Region aktiv mitzugestalten. Das betrifft zum Beispiel Trends wie Industrie 4.0 oder additive Fertigung, von denen Analysten auch in Hochlohnländern eine Wiederbelebung der regionalen Warenproduktion erwarten: Hierbei könnte eine Firmenkundenplattform, ähnlich wie GenoSharing.com aufgebaut, bremsende Investitionshürden aus dem Weg räumen.

Denn durch kollektive Nutzung neuester Technologien bekämen auch klei­nere Mittelständler mit nur sporadischem Bedarf die Chance zur additiven Fertigung hochwertiger Einzelstücke oder Kleinserien. Die Genossenschaftsidee aus dem 19. Jahrhundert manifestiert sich in einer solchen Digitalplattform erneut: Der Grundgedanke erweist sich somit als zeitgemäß und genauso vital wie am ersten Tag.

Weitere Informationen unter:
www.fiduciagad.de

Forschung für die vernetzte Gesellschaft

Die TREND-REPORT-Redaktion sprach mit den Vordenkern und Gründern des Weizenbaum-Instituts über ihre Forschungsgruppen und dringliche Fragen im Kontext einer vernetzten Gesellschaft.

 

Im Gespräch mit Frau Prof. Dr.-Ing. Ina Schieferdecker, TU Berlin / Fraunhofer FOKUS

 

Frau Prof. Schieferdecker, welche zentralen Fragen rund um das Internet of Things (IoT) sind noch ungeklärt?
Die Technologien für das Internet der Dinge sind bis dato nur mit Einschränkungen als interoperabel oder sicher zu bezeichnen. Es laufen diverse Gespräche auf politischen und Arbeitsebenen, durch welche Maßnahmen Funktionalität, Ska­lierbarkeit, Sicherheit und Nachvollziehbarkeit gewährleistet und abgesichert werden können.

In Berlin bieten wir dazu im Fraunhofer-Leistungszentrum „Digitale Vernetzung“ das Transferzentrum IoT an. Dort erhalten Nutzer, Hersteller und Interessenten Schulungs- und Beratungsangebote zur Anwendung von qualitativ hochwertigen IoT-Lösungen. Am Weizenbaum-Institut arbeiten wir an Fragen der Verantwortung im und mit dem IoT.

Inwieweit beschäftigt Sie das Thema künstliche Intelligenz (KI) in Ihrer Forschungsgruppe „Kritikalität softwarebasierter Systeme“?
Wir untersuchen, inwieweit Software durch die mit KI und Daten ermöglichten neuen Di­men­sionen der Automatisierung auch neue mögliche Fragilitäten oder Angreifbarkeiten mit sich bringt. Dabei schauen wir insbesondere auf die nötigen Aus- und Weiterbildun­gen, aber auch auf die passende Benutzbarkeit und Bedienbarkeit der Systeme.

Da es keine 100-prozentig korrekte Software oder eben KI gibt und geben wird, muss ein souveräner Umgang mit diesen Systemen sowohl in Normalsituationen als auch in Fehler- oder Ausfallsituationen ermöglicht werden.

 

 

Frau Prof. Schieferdecker, vielen Dank für das Gespräch.

 

Weiterführende Informationen:
https://vernetzung-und-gesellschaft.de/

 

Forschung für die vernetzte Gesellschaft

Die TREND-REPORT-Redaktion sprach mit den Vordenkern und Gründern des Weizenbaum-Instituts über ihre Forschungsgruppen und dringliche Fragen im Kontext einer vernetzten Gesellschaft.

 

Im Gespräch mit Prof. Dr. Martin Emmer, FU Berlin

 

Herr Prof. Emmer, welchem Forschungsbereich haben Sie sich verschrieben?
Als Mediennutzungsforscher blicke ich vor allem auf politische Kommunikationsinhalte und gesellschaftliche und politische Partizipation. Am Weizenbaum-Institut leite ich die Forschungsgruppe „Digital Citizenship“, in der es darum geht, wie sich unsere Vorstellungen von „Bürgerschaft“ in einer sich zunehmend digitalisierenden Gesellschaft wandeln.

Was wollen Sie herausfinden?
Wir haben heute durch Internet, soziale und mobile Medien viel mehr Möglichkeiten, uns zu informieren, miteinander zu interagieren, uns zu engagieren, als das früher der Fall war.

Unsere Kernfrage ist deshalb, ob diese neuen Handlungsoptionen unsere eigene Haltung gegenüber der Gesellschaft und der Politik verändern:

Erwarten wir mehr von der Politik, etwa schnellere Problemlösungen, individuellere Antworten auf unsere Lebenslagen, mehr Responsivität von Politikern oder auch mehr direkte Mitentscheidungsmöglichkeiten?

Reagieren wir anders auf politische Nachrichten und Entscheidungen, führen diese zu anderen Gefühlen, Einstellungen oder Handlungen als früher?

Lassen sich durch solche möglicherweise neu entstehenden Bürgernormen weitergehende Veränderungen in Politik und Gesellschaft erklären?

Solchen Fragen nähern wir uns mit einer großen Bandbreite von Methoden, etwa klassischer Umfrageforschung, Gruppendiskussionen, ethnografischen Beobachtungen oder auch der automatisierten Analyse digitaler Nutzungsdaten.

 

 

Herr Prof. Emmer, vielen Dank für das Gespräch.

 

 

Weiterführende Informationen:
https://vernetzung-und-gesellschaft.de/