Vernetzte Gesellschaft

Die Digitalisierung führt zu tief greifenden Änderungen sowohl im Informations- und Entscheidungsverhalten des Einzelnen als auch im menschlichen Miteinander.

Wie empfinden Sie die zunehmende Beschleunigung durch die Digitalisierung? Freuen Sie sich schon auf die Chancen, die zukünftige Vernetzungstechnologien möglich machen werden? Oder fühlen Sie sich überfordert und können sich nicht vorstellen, wie Sie das alles stemmen sollen? Sehr wahrscheinlich wird uns aber die künstliche Intelligenz in naher Zukunft noch mehr Arbeit abnehmen.

Auch in öffentlichen Debatten wird momentan der Einfluss digitaler Technologie auf individuelles Verhalten und gesellschaftliche Prozesse kontrovers diskutiert. Eins ist jedoch sicher, die digitale Kluft wird immer größer und die Auswirkungen der Digitalisierung kriegen wir alle zu spüren. Die Digitalisierung führt zu tief greifenden Änderungen sowohl im Informations- und Entscheidungsverhalten des Einzelnen als auch im menschlichen Miteinander. In diesem Kontext ist noch lange nicht erforscht, welche Auswirkungen die Vernetzung der Gesellschaft noch so mit sich bringen wird. Neue Technologien wie die Blockchain oder Robotic Process Automation und KI verändern uns schnell und in Realtime.
Um genau deshalb die richtigen Fragen zu stellen, ist im letzten Jahr das Weizenbaum-Institut für die vernetzte Gesellschaft an den Start gegangen. Die Aufgabe des Instituts ist es, aktuelle gesellschaftliche Veränderungen, die sich im Zusammenhang mit der Digitalisierung abzeichnen, zu untersuchen und künftige politische und wirtschaftliche Handlungsoptionen zu skizzieren. Das Kernziel des Instituts besteht in exzellenter, interdisziplinärer und problemorientierter Grundlagenforschung, die zugleich anwendungsorientierte Vorhaben antreibt und daraus wiederum Impulse für neue Forschungsfragen gewinnt. Um dem Zusammenspiel von Technik und Gesellschaft gerecht zu werden, wird das Prinzip der Interdisziplinarität nicht nur punktuell, sondern in allen Forschungsbereichen und Vorhaben realisiert. Dabei wird das Institut zum ersten Mal alle relevanten Fachdisziplinen integral in einem Forschungsprogramm vereinen und eine holistische Perspektive auf den Prozess der Digitalisierung in der Gesellschaft entwickeln.

Eine zentrale gesellschaftliche Herausforderung besteht in der Sicherung demokratischer Selbstbestimmung und Teilhabe unter den Bedingungen der zunehmenden Digitalisierung und Automatisierung. „Dabei geht es sowohl darum, Entwicklungschancen für die Gesellschaft zu entdecken, als auch darum, Risiken besser einschätzen zu können. Das soll unserer Gesellschaft auf allen Ebenen ermöglichen, auf jeweils neue Herausforderungen evidenzbasierter als bisher zu reagieren. Leitgedanke ist dabei die Selbstbestimmung der Menschen als Individuen wie auch der Gesellschaft als Ganzes, die auch in neuen digitalen Umgebungen gesichert und gestärkt werden soll“, erklärte uns dazu Prof. Dr. Martin Emmer von der FU Berlin im Hintergrundgespräch.
Das Gründungsmitglied des Weizenbaum-Institutes beschäftigt sich mit den Forschungsfeldern Nutzung Digitaler Medien und politische Kommunikation.

Aktuelles aus der Sharing Economy

Prof. Dr.-Ing. Norbert Gronau vom Weizenbaum-Institut: „Unsere Forschungsfragen sind insbesondere, wie im Zeitalter der Digitalisierung die zukünftige individuelle und prozessnahe Qualifizierung von Mitarbeiterinnen und Mitarbeitern aussehen muss.“

Die zunehmende Vernetzung unserer Gesellschaft bringt neue Konsummodelle hervor. Wenn es nach dem Willen der Konsumenten geht, haben Unternehmen der Konsumgüterbranche in Sachen Sharing Economy Nachholbedarf in Deutschland.

Es scheint so, dass die Idee, Produkte auf Zeit zu besitzen und lediglich zu mieten, in Deutschland ein neues Level erreicht hat. Aktuell testen gerade große deutsche Einzelhändler ein neues Geschäftsmodell, um ihre Waren zusätzlich zum Abverkauf noch zu vermieten. Dieses Vorgehen scheinen junge Verbraucher auch zu fordern im Kontext ihrer neuen Mobilität und Flexibilität. Das ist der Trend der jungen Generation, die nicht mehr so viel Wert auf den Besitz von Gütern legt. Doch inwieweit wird die Sharing Economy unsere zukünftigen Konsumgewohnheiten verändern?

Wie wir aus einer aktuellen Studie von PricewaterhouseCoopers wissen, nutzt hierzulande schon fast jeder Vierte Sharing-Economy-Angebote in der einen oder anderen Form. Derzeit liegen die Schwerpunkte in den Bereichen Medien, Unterkünfte und Mobilität. Maschinen hingegen werden noch vergleichsweise selten gemeinschaftlich genutzt. Die Studienautoren rechnen damit, dass mehr Rechtssicherheit und Vertrauen der Sharing Economy einen kräftigen Wachstumsimpuls geben dürfte. Auch das genossenschaftliche Prinzip als demokratische Unternehmensform ergänzt sich gut mit der vernetzten Sharing Economy.

Mit Geno­Sharing.com zum Beispiel erhalten Nutzer künftig die Möglichkeit, über eine vertrauenswürdige Plattform das nachhaltige Partizipationsmodell der Share Economy zu nutzen. „Die VR-Banken sind zu solch einem Geschäftsmodell prädestiniert, da sie selbst Gemeinschaften auf Gegenseitigkeit sind. Wie sie ganz konkret diese Rolle eines Vertrauensbrokers ausfüllen können, veranschaulicht die neue Verleih-Plattform GenoSharing.com, die noch im laufenden Jahr in die ‚Family & Friends‘-Testphase geht“, erklärte uns Klaus-Peter Bruns, Vorstandsvorsitzender der Fiducia & GAD IT AG im Hintergrundgespräch. Das Plattformkonzept der Fiducia & GAD ermöglicht den VR-Banken überdies, den digitalen Wandel in ihrer Region aktiv mitzugestalten.

Infrastruktur und Netzausbau?

„Leitgedanke unserer Forschung ist die Selbstbestimmung der Menschen als Individuen wie auch der Gesellschaft als Ganzes, die auch in neuen digitalen Umgebungen gesichert und gestärkt werden soll“, Prof. Dr. Martin Emmer von der FU Berlin.

Die Technologien und die Ideen sind da, die Infrastruktur lässt noch teilweise auf sich warten. Damit auch ländliche Gebiete nicht in Vergessenheit geraten, hängt viel vom Netzausbau ab. Fast 3,5 Milliarden Euro hat der Bund für den Netzausbau genehmigt, doch die Kommunen haben bislang nicht einmal ein Prozent der Mittel abgerufen. Kritik gibt es an den Anträgen: Sie seien zu kompliziert. Donald Badoux, Managing Director von Equinix in Deutschland, betreibt Rechenzentren und meint dazu: „Was die Breitbandverfügbarkeit betrifft, steht Deutschland im internationalen Vergleich nicht besonders gut da und bleibt hinter den skandinavischen Ländern, den USA oder Asien zurück. Daten sind der Rohstoff des 21. Jahrhunderts. Die bestehende Infrastruktur ist den aufkommenden Datenmengen gerade auch in Deutschland schon jetzt nicht mehr gewachsen. Grund dafür ist neben den wachsenden Datenvolumina der langsame Glasfaserausbau, der das Wachstum in Bezug auf Infrastruktur verlangsamt.“ Badoux erklärt weiter: „2017 veröffentlichte Equinix zum ersten Mal den Interconnection-Index. Der Index misst und prognostiziert das Wachstum der Interconnection-Bandbreite, also der Kapazität für den direkten, privaten Datenaustausch zwischen Unternehmen, Service-Providern und Kunden. Laut unseren Prognosen wird dieser private Datenaustausch in den kommenden Jahren weltweit um 45 Prozent pro Jahr wachsen. Bis 2020 sollen 5 000 Terabit pro Sekunde (Tbit / s) erreicht werden – was das öffentliche Internet übertrifft.“

Mobilität im Wandel

Wir sind quasi mitten im Mobilitätswandel und brauchen dazu ein neues verbraucherorientiertes Mobilitätsverständnis. Claus Grunow, Leiter Markt-, Geschäfts- und Produktentwicklung Deutsche Bahn Connect, betonte dabei im Interview mit der Redaktion: „Die Digitalisierung treibt den Mobilitätswandel in immer schnellerem Tempo voran, auch wenn wir noch einige Schritte vor uns haben bis zur Smart City oder Smart Mobility. Autonome Verkehre, On-Demand-Shuttles, Rideselling bis hin zu Transport-Drohnen in der Logistik: Die neuen Mobilitätslösungen sind das nach außen vielleicht sichtbarste Charakteristikum des gegenwärtigen Wandels, doch die digitale Vernetzung unserer Mobilitätsangebote wird unser Mobilitätsverhalten und unsere Städte in einem wesentlich schnelleren und größeren Ausmaß grundlegend verändern. Mobilität wird in naher Zukunft vollständig digital ablaufen. Heute noch per Smartphone und morgen vielleicht mit gänzlich neuen mobilen Endgeräten und Applikationen. Wir als Unternehmen sind gefordert, den digitalen Wandel aktiv zu gestalten und nicht weiter abzuwarten, bis die Kundenerwartungen und -bedürfnisse uns fordern.“

Damit Unternehmen den digitalen Wandel mitgestalten können, müssen Mitarbeiter im Kontext der neuen Technologien und Möglichkeiten am Ball bleiben. Learning on the Job mit neuen digitalen Weiterbildungsangeboten ist en vogue und zeitgemäß. Nach neuen Inhalten und Methoden des Lehrens und Lernens für unterschiedliche Bildungsbereiche zu fragen, gewinnt zunehmend an Bedeutung. Prof. Dr.-Ing. Norbert Gronau vom Weizenbaum-Institut erklärte uns dazu: „Unsere Forschungsfragen sind insbesondere, wie im Zeitalter der Digitalisierung die zukünftige individuelle und prozessnahe Qualifizierung von Mitarbeiterinnen und Mitarbeitern aussehen muss. Wie können geeignete Lehr-Lern-Szenarien entwickelt und erprobt werden, unter anderem in unserem Digitallabor, und vor allen Dingen, wie sehen digitale Selbstlernangebote aus?“ Die Forschungsbereiche von Prof. Gronau umfassen die Themen des Betrieblichen Wissensmanagements, dazu gehören auch Weiter­bildung, Training on the Job und E-Learning sowie die Gestaltung von wettbewerbsfähigen Architekturen industrieller Informationssysteme im Bereich Industrie, Handel, Dienstleistung und öffentlicher Sektor.

Nachhaltigkeit und Vernetzung

Computer haben schon lange unseren Schreibtisch verlassen und bieten uns in Form vernetzter Geräte in unserem privaten Umfeld und am Arbeitsplatz immer neue Möglichkeiten. In Zukunft wird alles mit allem vernetzt werden. Nicht nur die Städte, unser ganzes Leben wird dadurch immer „smarter“. Aktuell stehen dabei oft noch „Gadgets“ im Fokus, aber die Technologie hat das Potenzial, Wirtschaft und Gesellschaften grundlegend zu verändern. Smart-Home-Devices können beispielsweise helfen, Kosten zu senken und zu Hause Energie zu sparen. Mukul Dhyani von Wipro Ltd. (NYSE:WIT) erklärte uns dazu: „Vor allem Entwicklungsländer können von der weltweit steigenden Zahl vernetzter Geräte enorm profitieren. Smartere Städte werden zu sauberem Wasser, sauberer Luft und verbesserter öffentlicher Gesundheit führen. IoT-Technologie kann die Produktivität in der Landwirtschaft und damit die Erträge verbessern. Sie kann gewährleisten, dass die Hilfe auch die Bauern erreicht, die die Unterstützung benötigen. Bei aller Euphorie sollten wir aber nicht aus den Augen verlieren, dass hier noch viel Arbeit vor uns liegt. Einige Herausforderungen beim Datenschutz, der Kompatibilität der Geräte sowie der Sicherheit müssen noch gelöst werden.“

„Wir untersuchen, inwieweit Software durch die mit KI und Daten ermöglichten neuen Dimensionen der Automatisierung auch neue mögliche Fragilitäten oder Angreifbarkeiten mit sich bringt“, so Prof. Dr. Ina Schieferdecker.

Aktuell diskutiert das Thema gerade die Forschungsgruppe „Kritikalität softwarebasierter Systeme“ am Weizenbaum-Institut. „Wir untersuchen, inwieweit Software durch die mit KI und Daten ermöglichten neuen Dimensionen der Automatisierung auch neue mögliche Fragilitäten oder Angreifbarkeiten mit sich bringt. Um diese zu adressieren, schauen wir insbesondere auf die nötigen Aus- und Weiterbildungen als auch auf die passende Benutzbarkeit und Bedienbarkeit der Systeme. Da es keine 100-prozentig kor­rekte Software oder eben KI gibt (und geben wird), kommt es sehr darauf an, einen souveränen Umgang mit diesen Systemen sowohl in Normalsituationen als auch in Fehler- oder Ausfallsitu­a­tionen zu ermöglichen“, so Prof. Dr.-Ing. Ina Schieferdecker, Professorin für Quality Engineering von Offenen Verteilten Systemen an der Technischen Universität Berlin und Gründungsdirektorin des Weizenbaum-Instituts für die vernetzte Gesellschaft.

Die aktuellen Beispiele verdeutlichen gut, wie schnell uns die digitale Transformation berührt und verändert. Wir wollen alle hoffen, dass die Forschung in Zukunft rund um die Auswirkungen der Digitalisierung viele positive Einflüsse auf unsere Gesellschaft feststellen kann. Abzuwarten bleibt, wie schnell und flexibel unsere Politik die richtigen Rahmenbedingungen im Kontext der Digitalisierung verankern wird. Hier im Hinblick auf die künstliche Intelligenz, sonst wird aus der jetzigen digitalen Evolution doch noch eine digitale Revolution.

von Bernhard Haselbauer

Plattform für Nachhaltigkeit

„Bewältigen Sie doch einfach alle Ihre Nachhaltigkeits- und Complianceherausforderungen zentral und mit einem Mausklick“ – wäre das nicht eine optimale Lösung, um den zahlreichen internationalen Regulierungen und Anforderungen in den Bereichen Umwelt, Soziales und Materialien zu begegnen?

Internationale Regulierungen, aber auch Verbraucher- und Kundenanforderungen an die Nachhaltigkeit von Produkten und Lieferketten werden immer zahlreicher und komplexer. „Aus diesem Grund haben wir mit dem ‚SustainHub‘ eine zentrale Anlaufstel­le entwickelt, um die Kommunikation und Datenerfassung innerhalb der Lieferkette so einfach und effizient wie möglich zu gestalten“, betonte Jörg Walden, CEO von iPoint-systems, im Hintergrundgespräch mit unserer Redaktion. Über 50 000 Experten sind bereits auf dieser Community-Plattform aktiv und managen dort alle ihre Compliance- und Nachhaltigkeitsdaten an einer zentralen Stelle. „Der SustainHub sichert heute schon für über acht Millionen Produkte die Konformität mit Gesetzen und Vorschriften“, erklärte uns Jörg Walden dazu. Doch wie funktioniert das? Als universell nutzbare cloudbasierte Plattform ermög­licht der iPoint SustainHub den Zugang zu unterschiedlichen Applikationen im Bereich Nachhaltigkeit und Compliance. Dort wählen User einfach die Applikation, die sie benötigen, um ihre regulatorischen oder durch Kunden gegebenen Anforderungen zu erfüllen.

Ist man einmal auf der Plattform angemeldet, stehen die Conflict-Minerals-App, die Material-Compliance-App und die Product-Chem-Risk-App zur Verfügung. „Wir sind dabei, weitere Applikationen zu entwickeln, zum Beispiel für die Bereiche Social Compliance, Corporate Social Responsibility und ‚Life Cycle Assessment‘ (LCA)“, kündigt Walden zum Ende des Gesprächs an.

Weitere Informationen unter:
https://www.ipoint-systems.com/de/loesungen/sustainhub/

Achtung, Fortschritt

Reportage

KI ist der nächste logische Schritt im Zuge der Digitalisierung. Jetzt ist die Zeit, Zukunft aktiv zu gestalten.

­Datenautobahnen, papierlose Büros, digitalisierte und daher beschleunigte Prozesse – an all das denkt man nicht, wenn man beim Amtsgang brav seinen Nummernzettel zieht. Am vielversprechendsten erscheint noch der Getränkeautomat im Wartezimmer, klingt doch der zweite Teil der Wortkomposition fast schon nach Fortschritt.

Der Staat, der eigentlich als Vorbild fungieren, der digitale Kompetenz vorleben müsste, um auch digital-kompetente, digital-mündige Bürger hervorzubringen, hat sich irgendwann in dreifacher Ausfertigung im letzten Jahrhundert verzettelt.

Unkenntnis und Unbehagen gegenüber Algorithmen kennzeichnen laut einer Umfrage der Bertelsmann Stiftung unsere Bevölkerung quer durch alle Alters- und Bildungsschichten. So können 45 Prozent spontan nicht sagen, was ihnen zum Begriff „Algorithmus“ einfällt und 73 Prozent fordern ein Verbot von Entscheidungen, die Software alleine trifft.

Politische Willensbekundungen sind immerhin vorhanden. So will die EU mit ihrem Plan für den Ausbau der künstlichen Intelligenz (KI) die Investitionen in Forschung und Entwicklung in diesem Bereich im öffentlichen und privaten Sektor bis 2020 um 20 Milliarden steigern. Woher das Geld kommen soll, ist dabei allerdings noch unklar, stockt man doch das eigene Forschungsprogramm Horizon 2020 nur um 1,5 Milliarden auf.

Vielleicht aus dem Cyber Valley in Deutschland. Die vom Land Baden-Württemberg geförderte Initiative hat zumindest schon erhebliche KI-Investitionen bewirkt. So wird beispielsweise Amazon ein Forschungszentrum für KI in der Universitätsstadt Tübingen eröffnen. 886 Millionen Euro investierte die öffentlich-private Risikokapitalgesellschaft Hightech Gründerfonds in Robotik-, Automatisierungs- und Virtual-Reality-Start-ups.

Chancen wahrnehmen

Mut macht auch eine aktuelle PwC-Studie, die vorrechnet, dass das deutsche Brutto-Inlandsprodukt allein durch KI bis zum Jahr 2030 um 11,3 Prozent steigen könnte, was einer Wertschöpfung von 430 Milliarden Euro entspräche.

Einzig der Konjunktiv trübt, weist PwC selbst doch darauf hin, dass die Zahlen „als potenzieller Umfang der wirtschaftlichen Auswirkungen von KI interpretiert und nicht als direkte Schät­zung des zukünftigen Wirtschaftswachs­tums aufgefasst werden“ sollten.

Ein Potenzial, welches sicherlich nur ausgeschöpft werden kann, wenn man die Bevölkerung und letzten Endes die eigenen Mitarbeiter mit an Bord holt. Dass hier auch innerhalb der Unternehmen noch Nachholbedarf besteht, offenbart auch eine aktuelle Umfrage von Another Monday, die der Anbieter intelligenter Prozessautomatisierungslösungen beim Markt- und Meinungsforschungsunternehmen YouGov in Auftrag gab.

„Die Automatisierung betrieblicher Abläufe ist kein Projekt, das am Tag der Implementierung abgeschlossen ist“, so Hans Martens, Gründer von Another Monday.

So fühlt sich jeder dritte deutsche Arbeitnehmer in Bezug auf den digitalen Wandel vom eigenen Unternehmen schlecht beraten und 65 Prozent gaben an, dass zu wenig thematisiert wird, welche Auswirkungen die Digitalisierung auf die eigene Tätigkeit hat. Dennoch sehen 72 Prozent der Befragten die Digitalisierung eher als Chance für ihre berufliche Weiterentwicklung und Unternehmen stehen vor der essenziellen Pflicht, ihre Mitarbeiter dabei zu unterstützen, die sich bietenden Chancen wahrzunehmen.

Dies betrifft beispielsweise auch die HR-Abteilung eines Unternehmens. „Sowohl Arbeitsziele und -inhalte als auch die eingesetzten Werk­zeuge werden sich massiv verändern“, berichtet Wieland Volkert, Country Manager Deutschland von PeopleDoc. Die HR mutiert immer mehr zum strategischen Erfolgsfaktor innerhalb eines Unternehmens.

Im War of Talents müssen Strategien entwickelt werden, „um die Besten der Besten für das Unternehmen zu gewinnen. Zudem müssen sie durch perfekte Services und gezielte Mitarbeiterförderung die Leistungsträger langfristig binden. Und schließlich ist die HR dafür verantwortlich, eine Infrastruktur aufzubauen, die in Personalfragen maximale Flexibilität, Rechtssicherheit und Wettbewerbsfähigkeit garantiert.“

„Robotic Process Automation“ (RPA) hilft, die HR von „zeitfressenden Routinearbeiten zu befreien“ und Freiräume für strategische Aufgaben zu schaffen. Allein das Onboarding, ein Prozess, der bislang rund vier Wochen in Anspruch nahm, kann mittels RPA völlig automatisiert werden.

RPA löst das tschechische Lehnwort Roboter von seiner physischen Manifestation. Der ursprünglich menschenähnliche Automat war verdammt, unentwegt monotone körperliche „robota“, also Zwangs- oder Fronarbeit, zu verrichten. „Jetzt ahmen Software-Roboter menschliches Verhalten nach“, berichtet Frank Termer, Bereichsleiter Software beim Digitalverband Bitkom. „Wenn sie zum Beispiel Daten automatisiert in Formularfelder eingeben.“

Dass Mitarbeiter so mehr Zeit für andere Tätigkeiten erhalten, bestätigt auch Martin Wild, CEO von Sogedes, und hebt hervor: „Die Arbeit wird einfach effizienter und mit weniger Fehlern erledigt. Sobald RPA im Einsatz ist, kann mit gleichem Ressourceneinsatz mehr getan werden, was natürlich Raum für neue Geschäfte entstehen lässt.“ Konkretes Neugeschäft sieht er beispielsweise im Kundenkontakt entstehen. „Hier können Cross- und Upsell-Potenziale genutzt werden, schnellere Vorgangsbearbeitung kann zu höherem Datendurchsatz, geringere Feh­lerquoten bei komplexen Buchungsprozessen können zu weniger Storni führen.“

Die Folge sind zufriedenere Kunden, was auch Dirk Dose, Managing Consultant bei PPI, bestätigt. Das Unternehmen berät Finanzdienstleister hinsichtlich des Einsatzes von Software-Robotern.
„Damit erhält jeder Mitarbeiter einen virtuellen Baukasten, um die eigenen Tätigkeiten zu verbessern“, berichtet er. Geringe Kosten, hohe Produktivität, mehr Qualität, bessere Compliance, schnelle Umsetzung und eben zufriedene Kunden sind die Folge.

Enormes Potenzial für den Einsatz im Unternehmen bietet auch Advanced Analytics, wie Clemens Frank, Mitglied der Geschäftsführung und verantwortlich für die Ressorts IT Platforms und Innovation bei Verovis, am Beispiel des Cash Forecastings verdeutlicht. „Bei der Cash-in-Position existiert eine gewisse Unsicherheit, die aus dem Zahlungsverhalten der Kunden resultiert“, erläutert er das Problem.

Durch die Daten innerhalb der ERP-Systeme können Advanced-Analytics-Methoden Muster des Zahlungsverhaltens der Kunden bzw. Kundengruppen erkennen. Beispielsweise zahlt ein Kunde immer am ersten Donnerstag im Monat, da der Zahlungslauf in dessen ERP-System entsprechend eingestellt ist. „Hat man solche Muster entdeckt“, führt Frank aus, „können konkrete Handlungsanweisungen für das Management der Geschäftsprozesse erzeugt werden.“

„Die gute Nachricht ist“, meint Michael Kanellos, Technologieanalyst bei OsiSoft, „dass Unternehmen den Wert von Analytics verstehen.“ Dabei legt sein Unternehmen den Fokus auf die Auswertung von Maschinendaten, wo noch extremer Nachholbedarf besteht. Laut einer IDC-Studie werden 45 Prozent aller Daten nicht genutzt.

„Maschinen erzeugen enorme Datenmengen, auf die die Mitarbeiter schnell reagieren müssen“, betont er. Analytik kann dabei auf die Datenebene gehen und strukturierte Daten für zusätzliche Erkenntnisse auswerten. „Ein Datenmanagementsystem wie unseres kann Probleme Stunden bis Tage im Voraus erkennen. Die Analytik liefert Vorhersagen Wochen oder sogar Monate im Voraus.“ Den effektiven Nutzen verdeutlicht Michael Kannellos mithilfe eines Beispiels: „Eine Firma entdeckte ein Windkraftanlagenproblem frühzeitig mithilfe unseres PI-Systems, wodurch die Reparaturkosten um 90 Prozent gesenkt werden konnten.“

Technologien richtig implementieren

Die Vorteile für Mitarbeiter und Unternehmen liegen auf der Hand, sie müssen nur noch zum Einsatz gebracht werden. „Für eine gewinnbringende Nutzung von RPA bedarf es keines besonderen digitalen Reifegrads“, ist sich Wild von Sogedes sicher, betont jedoch, dass der entscheidende Faktor für ein erfolgreiches Projekt nicht per se die grundsätzliche Herangehensweise sei, „sondern die klare Zieldefinition der zu optimierenden und automatisierenden Prozesse und Applikation.“

Darius Heisig von Kryon Systems hat sich zum Ziel gesetzt, Unternehmer dabei zu unterstützen, überhaupt erst die notwendige Klarheit über die Prozesse im eigenen Haus zu erhalten. Welche Hürden es dabei in der Regel zu überwinden gilt, verdeutlicht er wie folgt: „Sehr häufig werden Investitionen mit großen Systemhäusern in RPA-Projekte investiert. Allein für die Analyse, welche Prozesse zu analysieren sind, werden dann schon mehrere Hunderttausend Euro ausgegeben.“ Problematisch dabei ist zudem, dass diese Analysen oft noch fehlerhaft sind und nicht alle Varianten erkannt werden.

Abhilfe schafft dabei die „Process Discovery“ genannte Methodik. Dabei ermittelt eine KI die sich wiederho­lenden Prozesse beim Bildschirm­arbeits­alltag und macht Vorschläge hinsichtlich des höchsten Optimierungspotenzials.

Jetzt kann also fröhlich losautomatisiert werden. Automatisierungsraten von 99 Prozent und Kostenersparnisse von bis zu 75 Prozent lassen sich damit generieren. Kein Wunder also, dass rund 72 Prozent der befragten Unternehmen aus den USA, Großbritannien, Frankreich und Deutschland laut des aktuellen Automation Index des Marktforschungs- und Beratungshauses ISG bis 2019 RPA im laufenden Betrieb oder zumindest als Test in Pilotprojekten einsetzen wollen.

Die Arbeit wird einfach effizienter und mit weniger Fehlern erledigt.

Eine gemeinsame Initiative führender RPA-Anbieter unter der Federführung des Institute of Electrical and Electronics Engineers (IEEE) soll Unternehmern dabei helfen, auf dem sonst intransparenten Markt für Prozessautomatisierung den richtigen Partner zu finden. Die IEEE-Initiative und Another Monday, der einzige deutsche Anbieter, der sich aktuell an diesem Vorhaben beteiligt, wollen mit einem neuen IEEE-Standard Auswahlprozesse in Sachen intelligenter Prozessautomatisierung (IPA) verbessern.

Der Standard soll noch dieses Jahr auf den Markt kommen, neben einer einheitlichen Definition, die für Vereinfachung und Transparenz sorgt, soll er 160 Kriterien für RPA-Lösungen zusammenfassen, damit Anwender marktgängige Technologien besser einordnen und vergleichen können. Die Taxonomie der Kriterien erleichtert Unternehmen, zen­trale Aspekte des eigenen Anforderungskatalogs zu bewerten – beispielsweise wie skalierbar eine Automatisierungslösung und wie hoch der Implementierungsaufwand ist.

Auch Dr. Andreas Liebl, zuständig für New Venture Creation und appliedAI bei UnternehmerTUM, will „Deutschland ins KI-Zeitalter bringen“. Hierzu wurde die appliedAI-Initiative ins Leben gerufen, die Unternehmen zusammenbringt, die alle vor der gleichen Herausforderung stehen – dem Einsatz von KI im Unternehmen.

„Wir ermöglichen als gemeinnützige Initiative den offenen Austausch an einem neutralen Ort, bilden Mitarbeiter und Manager von Unternehmen weiter und verringern die Einstiegshürden durch die Möglichkeit, in unserem KI-Lab mit neuester Technologie und Expertenunterstützung prototypische KI-Systeme zu erstellen.“

Und nach der Implementierung?

„Die Automatisierung betrieblicher Abläufe ist kein Projekt, das mit dem Tag der Implementierung abgeschlossen ist“, bedenkt Hans Martens, Gründer von Another Monday. „Nur wenn sich hieran ein kontinuierliches Monitoring anschließt und Software-Roboter bei Veränderung der Systemlandschaft entsprechend angepasst werden, hat die RPA-Initiative Aussicht auf nachhaltigen Erfolg.“

„Idealerweise geschieht die Anpassung dann nicht erst, nachdem die Änderung schon stattgefunden hat“, wagt Heisig von Kryon Systems mit dem Begriff „Continuous Process Optimisation“ den Blick in die Zukunft. „Eine AI könnte, schon bevor Änderungen eingeführt werden, proaktiv einen Vorschlag machen.“

„KI entwickelt sich so rasant, dass viele Fragen ungeklärt sind bzw. immer neu gestellt werden müssen“, ergänzt Dr. Liebl. „Will eine Firma mithalten, müssen sich ihre KI-Experten zum Teil wöchentlich über aktuelle KI-Trends auf den neusten Stand bringen.“ Dies gelte nicht nur für die Auswahl der richtigen Methoden und Algorithmen, sondern insbesondere auch für organisatorische Fragen, die stets im Vordergrund stehen sollten.

Achtung, Datenschutz!

Bevor RPA und künstliche Intelligenz oder deren Verschmelzung, RPA 2.0, die Produktivität innerhalb der Unternehmen zu steigern vermögen, gilt es, Bedenken hinsichtlich des Datenschutzes auszuräumen.

Unternehmer, die auf KI beruhende Systeme implementieren wollen, sind gefordert, an dieser Stelle für Transparenz zu sorgen und den Mitarbeitern gegenüber kennt­lich zu machen, welche Daten erhoben werden und wie eine Anony­mi­sie­rung gewährleistet wird.

In besonderem Ausmaß gilt das für die so­genannten kognitiven Systeme. Selbst­lernende Bild­erkennungssoftware bedarf ihr zur Verfügung gestellter Bilder; Chatbots lernen durch die Auswertung unserer Eingaben und die immer populärer werdenden digitalen Assistenten, die à la Alexa immer natürlicher auf das gesprochene Wort reagieren sollen, be­nötigen Tonaufnahmen. Nur so werden sie geschult, uns immer besser im Büroalltag, zu Hause oder auch beim Navigieren auf der Straße zu unterstützen.

Gib Gas!

KI soll gerade die Automobilbranche hierzulande laut oben erwähnter PwC-Studie wieder auf die Überholspur bringen. Dabei liegt nicht nur das freihändige Navigieren, sondern insbesondere das freihändige, das autonome Fahren im Fokus der Forschung.

Auch wenn der Name Elon Musk in diesem Zusammenhang den meisten eher ein Begriff sein dürfte als Professor Ernst Dickmann. Der ehemalige deutsche Robotiker und Hochschullehrer war der Erste, der in Zusammenarbeit mit der Daimler-Benz AG im Rahmen eines von der Europäischen Forschungsorganisation Eureka geförderten Projekts schon 1994 selbst fahrende Autos auf die Straße brachte.

Aus diesem Prometheus genannten Projekt gingen wichtige Technologien, vom Tempomaten bis zur Bremsautomatik, hervor. Während das namensgebende Feuer und Fortschritt stiftende Vorbild auf Geheiß des Göttervaters im Kaukasusgebirge festgeschmiedet wurde, wurde der prometheische Funken des Forschungsprojekts nur auf Eis gelegt. – Der Gott des Marktes ist der Kunde und dieser fuhr in den 90ern lieber noch selbst.

Erst 2010, mit dem Druck aus dem Silicon Valley und durch eine neue Autofahrer-Generation, die einfach nur von A nach B kommen will, begann die Eisschmelze. Seither setzt man wieder verstärkt auf die Entwicklung von KI-Technologien. Bleibt zu hoffen, dass dieses Umdenken nicht, wie schon bei der Elektromobilität, zu spät stattgefunden hat, war doch 2010 auch ausgerechnet das Jahr, in dem sich Professor Dickmann aus Forschung und Lehre zurückzog und seither nur noch hier und da bei vereinzelten Vorträgen auftaucht.

Autonomie heißt Selbstbestimmung

Ist also der Autofahrer der 90er-Jahre oder ist vielleicht unsere Mentalität, unsere Skepsis oder Ignoranz das größte Hindernis des technologischen Fortschritts? Immerhin versuchte die Bundesregierung mit der Einführung des elektronischen Identitätsnachweises (eID) die Digitalisierung anzukurbeln und scheiterte gnadenlos: Von 51 Millionen Bürgern, die 2017 den seit 2010 verfügbaren Personalausweis im Scheckkartenformat besaßen, hatte nur ein Drittel den elektronischen Identitätsnachweis überhaupt freigeschaltet.

Und nur 15 Prozent davon, also etwa gerade einmal 2,5 Millionen Bürger, haben die Funktion überhaupt schon einmal genutzt. „Wir waren der Meinung, dass man den elektronischen Personalausweis bewerben muss“, klagte BVA-Präsident Christoph Verenkotte. „Das sah der Bundestag seinerzeit anders und hat den einstelligen Millionenbetrag für eine Öffentlichkeitskampagne gestrichen.“

Diese Aussage tätigte Verenkotte im Zuge der Debatte um das „Gesetz zur Förderung des elektronischen Identitätsnachweises“, welches am 7. Juli 2017 verkündet wurde und wodurch seither die eID-Funktion standardmäßig aktiviert ist. Die Privatwirtschaft hat dabei schon längst selbst erfolgreiche Identifikationsverfahren via Webcam und selbstlernender Deep-Learning-Algorithmen etabliert.

Ein starkes KI-Ökosystem braucht Daten als Grundlage für Forschung und
Entwicklung.

Der Staat hat letzten Endes die gleiche Aufgabe zu bewältigen wie die Unternehmen, sollen seine Digitalisierungsvorhaben nicht genau so scheitern wie die Einführung des digitalen Personalausweises.

Er ist verpflichtet, den Bürger aufzuklären und ihm gegenüber kenntlich zu machen, welche Daten erhoben und wie eine Anonymisierung gewährleistet wird. Die Aufgabe der Politik sollte es nicht primär sein, den Bürger durch immer neue Gesetze zu bevormunden, zu verwirren oder zu überfordern. Sie sollte aufklären, sodass dieser selbstständig Entscheidungen treffen kann.

Datenschutz hat sicherlich seine Berechtigung, aber nicht all unsere Daten sind hochsensibel. Immerhin ist eine totale Verweigerung jeder Datenweitergabe in digitaler Form gleichbedeutend mit dem Stillstand der Forschung.

Ohne Zugang zu Daten sind selbstlernende Systeme nicht in der Lage, ihre namensgebende Funktion auszuüben. „Ein starkes KI-Ökosystem braucht Daten als Grundlage für Forschung und Entwicklung – gerade beim Deep Learning. Hier sind die Bedingungen für Datenpools zu verbessern, denn insbesondere diese Dimension fehlt bisher in der deutschen Debatte.

Auch Nutzungsmöglichkeiten anonymisierter und synthetisierter Daten zu Trainingszwecken müssen stärker gefördert und eingesetzt werden können.“ So lauten auch die Forderungen eines Positionspapiers der Stiftung Neue Verantwortung.

Da verwundert es nicht, dass China jetzt schon eine Vorreiterrolle in der KI-Forschung einnimmt. Wie der MIT Technology Review bescheinigt, wurden hier in den letzten Jahren die meisten Forschungsarbeiten zum Thema Deep Learning veröffentlicht. Das Land profitiert von einer ungeheuren Datenmenge.

Rund 750 Millionen Internetbenutzer haben dort keine Bedenken und stellen wesentlich ungehemmter Daten zur Verfügung als wir DSGVO-Bürger. Sehr wahrscheinlich also, dass China seine Dominanz noch weiter ausbauen wird, zumal auch der Staatsrat der Volksrepublik ankündigte, dass man mit einem Etat von 150 Milliarden Dollar bis 2030 zum alleinigen globalen Spitzenreiter werden möchte.

Wenn wir nicht vollends abgehängt werden wollen und das sicherlich vorhandene Potenzial wirklich ausschöpfen möchten, bedarf es also eines Umdenkens. Fortschritt geschieht, ganz gleich, ob wir aktiv daran teilnehmen oder nur im Wartezimmer Platz nehmen.

 

 

Autor: Andreas Fuhrich

„Wir sind definitiv kein Roboter“

Die TREND-REPORT-Redaktion sprach mit Dr. Christian Jasperneite (Titelbild), CIO von M.M.Warburg & CO  und Jan Kühne (Leiter Digital) über Menschen, Maschinen und den Einfluss künstlicher Intelligenz auf die Finanzbranche.

Herr Dr. Jasperneite, seit Oktober 2017 bieten Sie mit Warburg Navigator eine digitale Vermögensverwaltung an. An wen richtet sich das Angebot?
Dr. Jasperneite: Das Angebot richtet sich an alle, die einerseits erkannt haben, dass Sparen alleine wenig Sinn ergibt, aber andererseits nicht die Entscheidung darüber treffen wollen, wie investiert werden soll. Es gibt gefühlt unendlich viele Aktien, Anleihen und Fonds – da kann man als Privatperson leicht den Überblick verlieren. In vielen Fällen führt das dann dazu, dass man gar nichts macht. Früher wäre das kein großes Problem gewesen, da man ja selbst mit dem Sparbuch ansehnliche Zinsen erwirtschaften konnte. Und das ist jetzt eben vorbei, und zwar vermutlich für die nächsten zehn Jahre.

In welche Anlageformen investieren Sie dabei?
Dr. Jasperneite: Der Navigator investiert derzeit nur in ETFs und aktive Fonds, die wiederum 24 Märkte in allen denkbaren Assetklassen abbilden. In den kommenden Monaten werden wir jedoch unser Angebotsspektrum erweitern und auch Vermögensverwaltungen mit Einzeltiteln anbieten.

Herr Kühne, sind Roboter jetzt die besseren Anlageberater?
Kühne: Der Einsatz von „Robotern“ findet insbesondere bei der Überwachung von Anlagevorgaben Anwendung, weil hier automatisierte Prozesse gegenüber der Kontrolle durch Menschen überlegen sind. Im Kontext digitaler Vermögensverwaltung kommen Algorithmen häufig zur Anwendung, da die Anlagestrategie über das Risikomaß VaR abgebildet wird, deren Einhaltung wiederum mittels quantitativer Verfahren überwacht wird. Bei Warburg Navigator kombinieren wir diese prognosefreien Algorithmen aber mit einem prognosebasierten Ansatz, da wir der Ansicht sind, dass Expertise und jahrzehntelange Erfahrungen von Menschen ein wichtiges Korrektiv sein können. Wir erreichen dies, indem ein prognosefreies Grundmodell durch prognosebasierte Elemente so „gelotst“ wird, dass die Navigator-Portfolios von den fundamentalen Einschätzungen des Asset Managements der Privatbank profitieren. Auch in der Anlageberatung helfen „Roboter“, um Portfolien auf die Verletzung von Anlagerichtlinien hin zu überwachen und entsprechende Signale zu geben. Wir glauben hier aber an einen hybriden Ansatz, der den Berater einschließt, um gemeinsam mit dem Kunden die richtigen Schlüsse zu ziehen.

Dr. Jasperneite ergänzt: Es gibt immer Sachverhalte, die eine Maschine besser als ein Mensch erledigen kann. Dazu gehört beispielsweise das eben schon erwähnte einhalten von Risikobudgets, denn das ist primär eine mathematische Aufgabe, die intuitiv nur schwer zu lösen ist. Zudem können Kauf- oder Verkaufsprozesse sowie der ständige Abgleich zwischen Kundenportfolios und Musterportfolios zu einem gewissen Grad automatisiert werden. Allerdings ist es mir immer wichtig zu betonen, dass bei uns niemals ein Algorithmus oder eine Maschine unkontrolliert und ungeprüft Transaktionen in Kundenportfolios auslösen kann. Jeden Morgen überprüfen meine Kollegen, ob die Modelle in der Nacht ohne Fehler durchgelaufen sind und plausible Ergebnisse liefern. Wenn Transaktionen vorgeschlagen werden, erfolgt hier eine weitere Plausibilitätsprüfung. Und im Extremfall erlaube ich mir als Chefstratege, auch manuell einzugreifen. Ich nenne ihnen ein Beispiel. Im Januar dieses Jahres waren die Schwankungen und die Korrelationen an den Märkten so gering, dass unser Modell eine weitere, leichte Anhebung der Aktienquote vorschlug. Mathematisch konnte ich diesen Transaktionsvorschlag komplett nachvollziehen. Allerdings waren die Volatilitäten und Korrelationen fast schon aberwitzig gering, so dass nach menschlichem Ermessen eine Korrektur mehr als in der Luft lag. Der Vola-Crash im Februar hat mich dann mit meinem Veto bestätigt.

Herr Kühne, Ihr Angebot haben Sie zusammen mit einem FinTech-Unternhemen auf den Markt gebracht. Welche Erfahrungen konnten Sie dabei sammeln?

Jan Kühne beschreibt die erfolgreiche Zusammenarbeit mit einem FinTech.

Kühne: Unser Angebot Warburg Navigator wird gemeinsam mit dem Berliner FinTech Elinvar GmbH umgesetzt. Elinvar steuert die Technologiekompetenz bei, wir bringen unsere Asset-Management-Kompetenz ein. Für den Kunden bedeutet das, dass er uns als Vermögensverwalter mandatiert und mit der Umsetzung seiner Anlagestrategie betraut. Die Technologie, die die digitale Umsetzung wie Online-Vertragsabschluss oder Kundenportal ermöglicht, kommt von Elinvar. Die Lösung, so wie sie heute am Markt ist, wurde dabei nicht von uns als Werkvertrag in Auftrag gegeben, sondern gemeinschaftlich entwickelt. Dinge wie „Design Thinking“, „agile Entwicklung“, „Minimal Viable Product“ waren hierbei selbstverständlicher Teil der Projektarbeit. Die „Agilität“ konnten wir dabei nicht unsern Mitstreitern von Elinvar überlassen, sondern musste von uns im gleichen Maße eingebracht werden. Zugegeben, eine sehr willkommene Lernkurve.

Herr Dr. Jasperneite, wieviel Mensch und wieviel Warburg steckt dann noch im Navigator?
Dr. Jasperneite: Im Warburg Navigator steckt extrem viel Mensch, auch wenn Algorithmen ihre Berechtigung haben. Aber unsere Algorithmen sind nicht von marktfernen Physikern und Mathematikern programmiert worden, sondern von Kollegen, die seit vielen Jahren für die Anlage großer Summen Verantwortung tragen und seit dem Platzen der Internetblase im Jahr 2000 selbst alle Krisen und Boomphasen als Investor durchlebt haben. Zudem nutzen wir den Algorithmus wie schon erwähnt primär, um Risikobudgets einzuhalten und für eine besonders effiziente Streuung von Risiken zu sorgen. Ebenso wichtig sind aber unsere taktischen Einschätzungen und Überlegungen, die ebenfalls direkt in die Portfoliokonstruktion einfließen und hier einen Mehrwert gegenüber reinen Anlagerobotern liefern. Das ist auch der Grund, warum wir uns ungern als Robo-Advisor bezeichnen lassen, denn wir sind definitiv kein Roboter.

Herr Kühne, die Skepsis der Kunden hinschlich digitaler Produkte, speziell auch im Hinblick auf Datenschutz, ist oft groß. Gerade für Vermögensverwalter ist Vertrauen jedoch von entscheidender Bedeutung. Wie lässt sich dieses in einer digitalen Welt aufbauen?
Kühne: Vertrauensaufbau erfolgt heute durch Nutzung. Die erfolgreichen Internetunternehmen haben dies vorgemacht: Verständliche Benutzerführung, verlässliche Prozesse, wiederholte Anwendung, alltäglicher Gebrauch – nur so fasst der Nutzer Vertrauen. Für Banken im Bereich der digitalen Vermögensverwaltung bedeutet dies, dass sich ihre Angebote an der User Experience messen lassen müssen, die der Nutzer aus anderen Bereichen kennt und erwartet. Die Sicherheit der Daten und der Schutz vor fremdem Zugriff ist eine weitere Grundvoraussetzung. Sicherlich genießen Banken hier einen gewissen Vertrauensvorschuss, da dies eine der Grundtugenden ist – Stichwort Bankgeheimnis – die Kunden mit Banken verbinden. Nur müssen Banken mit diesem Gut auch sehr sorgfältig umgehen. Nachlässigkeiten, die man anderen Marktteilnehmern vielleicht durchgehen lassen würde, dürfen sich Banken nicht erlauben. Auch wenn das in manchen Situationen in einem gewissen Konflikt zur Benutzerfreundlichkeit stehen kann.

Wie werden Big Data und künstliche Intelligenz die Finanzwirtschaft verändern?
Kühne: Big Data ist in der Finanzwirtschaft insofern nichts Neues, da die Analyse einer Vielzahl von Kapitalmarktinformationen und Konjunkturdaten schon lange ein wichtiges Element im Asset Management darstellt. Mit Zunahme der Rechen- und Speicherleistung nehmen die Möglichkeiten zu. Theoretische Konzepte können eher praktisch verprobt, hochpersonalisierte Anlagestrategien umgesetzt werden. Ebenso wird Künstliche Intelligenz und Machine Learning die Güte von Ansätzen wie Mustererkennung und regelbasierte Anlagestrategien weiter erhöhen. Aber auch dies findet in einem evolutionären Prozess statt, disruptive Veränderungen erwarten wir nicht. Im Kontext Big Data wird ferner häufig auf den Datenschatz der Banken hingewiesen. Spätestens mit PSD2 hat der Kunde aber die Hoheit über seine Bankdaten und die Möglichkeit, diese mit anderen zu teilen. Da Kundennutzen dann zu erwarten ist, wenn Daten aus unterschiedlichen Kontexten sinnvoll kombiniert werden, ist noch nicht ausgemacht, wer hier am Ende erfolgreiche Geschäftsmodelle etabliert.

 

Weiterführende Informationen: https://navigator.mmwarburg.de

Bildlizenzen: M.M.Warburg & CO (AG & Co.) KGaA

 

Digitaler Zehnkampf

Unternehmen müssen sich wandeln, denn nie war die Zeit besser geeignet, neue digitale Geschäftmodelle zu etablieren.

Die digitale Evolution nimmt weiter an Fahrt auf und die weltweiten Aus­gaben der Unternehmen für digitale Transformation werden 2018 rund 1,1 Billionen US-Dollar erreichen. Dies sind rund 17 Pro­zent mehr als noch im Vorjahr. Das förderte die aktuelle Studie der Marktanalysten von IDC zutage. Die meisten Investitionen werden laut der Studie getätigt für Anwendungen, Konnektivitätsdienste und Dienstleistungen der Informationstechnik. Die digitale Transformation ist in vollem Gange. Es ist nur noch eine Frage der Zeit, aber es muss schnell gehen. Um diesen Wandel zum Vorteil aller zu gestalten, braucht es Kreativität. Jetzt geht es darum, frische Ideen zu entwickeln, auszuprobieren und umzusetzen. Doch wie werden Unternehmen kreativ?

Eine Schlüsselrolle dabei kommt sicherlich dem „Chief Digital Officer“ (CDO) zu, den unternehmerische Kreativität, ein Händchen für disruptive Technologien und ein gutes Gespür auszeichnen, um die richtigen Köpfe für die Umsetzung neuer Ideen zu finden. Der CDO treibt die digitale Transformation. Er ist zugleich Stratege, Umsetzer, Change-Manager und Impulsgeber. Allerdings: Einen allein gültigen Weg, kreativ die digitale Transformation zu bewältigen, gibt es nicht. Schon gar nicht, wenn auf einen Messias in Form des CDOs gewartet wird. Der stünde auf verlorenem Posten, wenn sich das Unternehmen nicht öffnen, Hierarchien einreißen, Entscheidungswege flexibilisieren, kurz: sich die Unternehmenskultur wandeln würde. Der CDO muss die bestehende Ordnung in Frage stellen, Mitarbeiter und Vorstand für seinen agilen Weg begeistern, er muss Revolutionär und Mediator sein. Netzwerke müssen an die Stelle strenger Hierarchien treten. Dann eröffnen sich neue Chancen für kreative Prozesse im Kontext von Open Innovation (OI), die schnell und agil in neue digitale Geschäftsmodelle münden können. Aber zunächst sollten die inkrementellen Innovationen in Angriff genommen werden.

Zum Beispiel werden sich unsere Arbeitsplätze verändern, das ist sicher. In den nächsten Jahren werden immer mehr neue Technologien und bisher unbekannte Arbeitsweisen in deutschen Unternehmen Einzug halten und unser gewohntes Arbeitsumfeld umkrempeln. Digitalisierung bedeutet, dass sich der Großteil des Unternehmensalltags virtuell abspielt.
In der Konsequenz sollte jeder Arbeitnehmer in seinem Unternehmen Zugang zu den wichtigsten Anwendungen haben – sei es „Customer Re­lationship Management“ (CRM), Bu­siness Intelligence (BI) oder Kom­munikation. Je nach Produkt oder Dienstleistung braucht eine Firma das für sie richtige Tool. Toplink-Geschäftsführer Jens Weller empfiehlt deshalb: „Suchen Sie also nach Lösungen, die sich nahtlos in Ihr Tagesgeschäft integrieren lassen. „Vor allem cloudbasierte Lösungen bieten zahlreiche Vorteile für Unternehmen“, erklärt Weller weiter. Durch die Entkopplung der Daten, Applikationen und Prozesse von physischen Infrastrukturen ergibt sich einerseits größere Flexibilität, wich­tig in einer Zeit, in der immer mehr Menschen von überall Zugriff auf Daten brauchen und gar nicht mehr in Büros arbeiten. Andererseits lässt sich das Daily Business mit cloudbasierten Lösungen aber auch individueller und effizienter nutzen. Auf diese Weise bieten Cloud-Lösungen neben mehr Agilität auch Einsparpotenziale.“

Mehr Informationen:

Wir haben weitere sehr interessante Artikel zum Thema unter anderem aus dem Technologieprogramm „Smart Service Welt“ des Bundesministeriums für Wirtschaft und Energie für Sie zusammengestellt. Klicken Sie einfach hier: Digitaler Zehnkampf

Weitere Disziplinen, um die digitale Transformation in den Griff zu bekommen, sind in Form von Ko­operationen mit Universitäten und Forschungseinrichtungen zu sehen. Der Technologietransfer kann in Form von gemeinsamen Projekten oder mit der Beteiligung an Start-ups beflügelt werden. Zusätzlich sollte eine Art Trendradar im Unternehmen etabliert werden, um neue Technologien zu bewerten und diese eventuell selbst zum Einsatz zu bringen.

Neben diesen wichtigen Weichenstellungen muss sich aber auch einiges in den Köpfen verändern. Einige Unternehmen in Deutschland sind bereits gut für die digitale Transformation und Industrie 4.0 aufgestellt, Sorgen muss sich vor allem der Mittelstand machen. Das größte Problem ist: Der Mittelstand investiert kontinuierlich zu wenig. In der Breite haben mittelständische Unternehmen heute immer noch große Schwierigkeiten, ihr Geschäftsmodell an die Umwälzungen anzupassen, die durch die digitale Transformation entstehen.

Tipps und Tricks

Wir empfehlen einen Dreischritt: Erstens sollten abteilungsübergreifende Think-Tanks gebildet werden, die Ideen für zukünftige Geschäftsmodelle entwickeln. Zweitens sollten Partner aus der IT-Branche gesucht werden, die über ausreichende Referenzen verfügen. Und drittens raten wir an, die Kosten für die IT-Landschaft mit Cloud-Technologien zu senken. Die so freigesetzten Ressourcen könnten wiederum in die Projekte der Think-Tanks fließen. Doch vielfach fehlt dem Mittelstand noch die Bereitschaft, Geschäftsmodelle schnell und grund­legend zu verändern: Unternehmen müssen mutiger sein!

Das Internet ist ein Turbolader für die deutsche Wirtschaft. Die Zeiten waren nie besser, digitale Geschäftsmodelle zu etablieren. Dies haben findige FinTech-Unternehmen zum Anlass genommen, um schnell neue Services rund um den Zahlungsverkehr zu generieren. Auch André M. Ba­jorat, einer der Vordenker der FinTech-Branche und des Digital Bankings, schreibt auf trendreport.de in seinem Gastbeitrag über die aktuell stattfindenden nachhaltigen Veränderungen im Banking und über die Chancen klassischer Banken. Christian Brüseke, General Manager von Avoka, beschreibt die Situation ganz unverblümt: „Die digitale Transformation im Finance-Sektor wird wie die Axt im Walde sein. Während Firmen, die anfassbare Produkte produzieren, noch etwas Zeit haben, hat die Finanzbranche keine.“

Finanzinstitute im Wandel

„Denn das Produkt der Banken ist seit Jahrzehnten bereits digital – Geld besteht letztlich aus Einsen und Nullen. Daher wird, was wir im Zeitungsmarkt gesehen haben, auch im Banking passieren.“ Brüseke fährt fort: „Dort haben E-Commerce-Firmen mit Auto und Immobilien in kürzester Zeit die lukrativsten Bereiche an sich gerissen. Im Banking werden bald neue Player Bereiche wie Kleinkredit, Aktienhandel, Payment & Co. dominieren.“ Dabei haben die Finanzinstitute als wichtiger Knotenpunkt zum Kunden alle Möglichkeiten, um ihr Geschäftsmodell zu transformieren. Banken sollten Ansprechpartner für alle finanziellen Aspekte des Lebens werden.

Und schon wieder entstehen neue Disziplinen in Form von Robotic Process Automation und KI. Die neuen Technologien bergen großes Einsparpotenzial, auch für den deutschen Mittelstand. Doch die Finanzbranche kommt nicht zur Ruhe, eine neue Disziplin muss jetzt gemeistert werden. Banken müssen jetzt dritten Zahlungsdiensteanbietern und anderen Banken Zugriff auf die Kontodaten ihrer Kunden gewähren. Mit der „Payment Service Directive 2“ (PSD2) wird die EU den Wettbewerb im europäischen Zahlungsverkehr fördern und ihn damit sicherer, bequemer und billiger machen. Dabei ändert sich nicht weniger als das gesamte Verhältnis zwischen Bank und Kunde.

von Bernhard Haselbauer

Digital Banking – Deutschland holt auf

Was deutsche Banken noch von australischen und nordamerikansichen Geldhäusern lernen können, erläutert Christian Brüseke, General Manager Avoka GmbH, im Interview mit der Redaktion.

Vor kurzem ist die dritte Ausgabe des Avoka-Reports „Digitaler Vertrieb in Banken“ erschienen. Was sind die wichtigsten Ergebnisse?
Generell kann man sagen, dass sich die Digitalisierung von Bankanwendungen endlich durchgesetzt hat. In allen Ländern und quer durch alle Banksegmente werden immer mehr Produkte digital und vor allem mobil zur Verfügung gestellt. Dabei überrascht mich am meisten, wie stark die deutschen Banken aufgeholt haben. Mittlerweile sind vier von sechs untersuchten Großbanken im sogenannten „Digital Promised Land“ angekommen. Dass die deutschen Institute sich so schnell so weit nach vorne „kämpfen“, hätte ich nicht erwartet. Unsere Studie zeigt zwar, dass die amerikanischen und australischen Banken den europäischen in Sachen digitaler Vertrieb weiterhin ein Stück voraus sind, sie zeigt allerdings auch, dass Europa und speziell die deutschen Finanzinstitute vor allem in Sachen Mobile Banking massiv aufgeholt haben.

Business Banking hat 2017 einen Riesensatz gemacht und die Online-Verfügbarkeit solcher Anwendungen wuchs weltweit um über 200 Prozent. Wie erklären Sie sich das?
In den vergangenen zwei Jahren haben die Banken global sehr viel Zeit und Geld in das Privatkundengeschäft investiert, um dort digitale Produkte anzubieten, die sich der Endkunde wünscht. Ganz einfach weil von dort der größte Druck kommt und dort auch die größte Wechselbereitschaft besteht. Durch diese einseitige Fokussierung sind das Onboarding für Firmenkunden und die entsprechenden Business-Anwendungen aus dem Blick­feld geraten. Mittlerweile haben die Banken aber erkannt, wie wichtig und gewinnträchtig die Digitalisierung des Firmenkundengeschäftes ist, und fangen an, hier ihre Expertise auszubauen. Übrigens sind die 200 Prozent eher irreführend, da die Institute von einem relativ geringen Status quo gestartet sind. Spannend wird der Zuwachs in diesem Jahr sein, denn dann zeigt sich, ob dies nur ein Strohfeuer war oder eine nachhaltige Entwicklung ist.

Weitere Informationen zur Studie „Digitaler Vertrieb in Banken“ finden Sie hier: https://www.avoka.com/portfolio-items/white-paper-2018-state-of-digital-sales-in-banking-report/

Beim Thema mobiles Produktangebot für Privatkunden lagen die europäischen Banken 2016 noch vor Nordamerika. Wie kommt es, dass Europa 2017 stagnierte und die Amerikaner vorbeizogen?
Die Europäer waren der Meinung, dass sie mit ihren neuen mobilen Angeboten genug getan haben und sich auf den Lorbeeren ausruhen können. Aber das ist eine gefährliche Einstellung. Der Bankenmarkt kennt über kurz oder lang keine Grenzen mehr und immer mehr FinTechs, aber auch ausländische Banken werden in andere Länder expandieren. Bestes Beispiel sind Goldman Sachs, die mit ihrer Online-Banking-Plattform „Marcus“ jetzt in Deutschland ins Privatkundengeschäft einsteigen wollen. Hinzu kommt, dass es gerade im mobilen Umfeld keinen Stillstand gibt. Was gestern als Produkt noch top war, kann schon morgen alt aussehen. Die nordamerikanischen Institute haben da die bessere Einstellung: Sie sehen Banking als sich ständig verändernden Prozess, investieren kontinuierlich, ruhen sich nicht aus und entwickeln immer neue Features und Anwendungen. Davon profitieren sie jetzt.

Wagen wir einen Blick ins Jahr 2023: Wo stehen die deutschen Banken und vor allem warum?
Fünf Jahre sind natürlich eine lange Zeit. Aber wenn die Banken hier ihre Bemühungen beim Thema Digital Sales nicht drastisch hochfahren, werden wir viele Verlierer sehen. FinTechs und vor allem ausländische Banken werden sich etabliert haben; die Margen der deutschen Banken schrumpfen; es wird weitere Fusionen geben, ja geben müssen. Kurzum, der Markt wird heterogener und die deutschen Banken verlieren Marktanteile. Das liegt, wenn sich nichts ändert, vor allem an drei Punkten. Erstens: Die deutschen Banken sind nach wie vor nicht in der Lage und nicht willens, den Kunden in den Mittelpunkt ihrer Aktivitäten zu stellen. Sie sehen das Thema Digitalisierung vor allem aus der Perspektive der Prozessoptimierung, anstatt den Kunden in den Vordergrund zu stellen. Zweitens: Die hiesigen Banken geben sich zu schnell mit dem zufrieden, was sie schon erreicht haben. Dass sie beispielsweise in Sachen Kundenservice noch viel mehr tun können und investieren müssen, erkennen sie erst langsam. Drittens: Die Bedeutung von Bargeld nimmt ab und gleichzeitig steigt die Akzeptanz und vor allem die Nutzung von PayPal, Google Pay oder Apple Pay. Davon profitieren FinTechs und E-Commerce-Firmen wie Amazon & Co., die näher am Kunden sind und schneller neue attraktive digitale Finanz-Lösungen und -Apps auf den Markt bringen als die Banken.

Abschließend: Welchen Tipp geben Sie den Banken, um mit internationalen Wettbewerbern und den FinTechs mitzuhalten?
Nicht nachzulassen, was die Digitalisierung betrifft und gleichzeitig verstehen, dass die Transformation der Prozesse nicht das Endziel darstellt, sondern nur Mittel zum Zweck ist. Der Fokus muss auf den Bereichen Kundenzufriedenheit und positives Erleben liegen. Die Institute müssen sich immer wieder die Frage stellen: „Was will und braucht der Kunde?“ und nicht „Welche Produkte und Abläufe sind für die Bank am relevantesten?“ Das ist genau das, was beispielsweise die Australier erkannt haben und besser machen. Sie trauen sich mehr, probieren mehr aus und da darf auch mal was schief gehen. Darüber hinaus müssten deutsche Banken mehr mit ihren Kunden zusammenarbeiten. So kann man neue Prozesse und Produkte durchaus mit Kundenfeedback entwickeln und am Kunden ausprobieren. Die Online-Bank N26 hat das getan und schauen Sie, wo die heute stehen.

Weitere Informationen unter:
www.avoka.com

Digital Finance

Vertrauen: In einer immer schnelllebigeren Zeit besinnen Banken sich auf eine ihrer Grundtugenden, um am Markt zu bestehen.

Stau und dichter Verkehr können schon ganz schön anstrengend sein. Ist man gar nicht mehr gewohnt, diese gebotene Langsamkeit. Moderne Technologien haben alle alltäglichen Prozesse beschleunigt. Wir erkaufen uns Zeit in Form von Geschirrspülern, Wasch­maschinen und Mikrowellen, Staubsauge- und Rasenmährobotern oder durch einen Breitbandanschluss, Onlineshopping und Expresslieferungen. Noch explizierter wird dies in der immer stärker wachsenden Sharing Economy, wo keine Produkte mehr, sondern nur Zeit mit Produkten erworben wird. Ein Stau erscheint da wie ein Artefakt aus längst vergangener, stehen gebliebener Zeit.

Kein Wunder, dass Zeit somit auch zum treibenden Faktor in der Finanzwelt geworden ist. „In Zeiten, in denen man mit dem Smartphone von unterwegs im Internet einkaufen kann und die Bestellung mitunter sogar am selben Tag noch zu Hause in Empfang nehmen kann, ist es logisch, auch die Vorteile von Online- und mobilen Zahlungslösungen zu nutzen“, meint Christian Schollmeyer, der als Referent beim Deutschen Sparkassen- und Giroverband die Akzeptanzstrategie sowie die Geschäftsfelder Online- und mobile Zahlverfahren betreut. Kein Wunder also, dass die Zahl der Kartenzahlungen im Handel langsam aber stetig steigt. „So hat sich etwa die Anzahl der girocard-Transaktionen von 1,46 Mrd. im Jahr 2007 zu 3,18 Mrd. im Jahr 2017 mehr als verdoppelt. Zuletzt gab es bei den Transaktionszahlen Rekordzuwächse von 13,1 Prozent im Jahr 2016 im Vergleich zu 2015 und 8,7 Prozent Zuwachs im Jahr 2017 im Vergleich zu 2016. Damit hat der Wandel nochmals deutlich Fahrt aufgenommen“, referiert er. „Ein Treiber dafür ist sicher das kontaktlose Zahlen.“

„Die Kunden nehmen das kontaktlose Bezahlen mit girocard so schnell an, wie keine andere Funktion der girocard jemals zuvor“, verwertet Ingo Limburg, Leiter Marketing und PR girocard bei Euro Kartensysteme, gerne die Vorlage. Obwohl im April erst rund 35 Millionen girocards über die NFC-Funktion verfügten, lag bei den Karten der Sparkassen sowie der Volksbanken Raiffeisenbanken der Anteil der kontaktlosen Zahlungen bereits bei jeweils rund 10 Prozent. Damit hat sich der Anteil der kontaktlosen Transaktionen seit Dezember 2017 verdoppelt. „Und das sogar ohne groß angelegte Werbemaßnahmen der Banken und Sparkassen“, freut er sich über den Paradigmenwechsel vom Stecken zum Auflegen und kündigt gleich den nächsten Schritt in der Evolution des Bezahlens an: „Mit der digitalen girocard, die Kunden mit ihrem NFC-fähigen Android-Smartphone verbinden können, können Kunden durch Auflegen des Smartphones an allen girocard-kontaktlos-Akzeptanzstellen schnell und bequem zahlen.“

Hierzu gehören auch Supermärkte, Oasen der Zeitersparnis, befreien sie uns doch vom Gang zum Bäcker, Metzger oder Obsthändler. Wäre es nicht schön, wenn es auch für die durch FinTechs entstehenden immer vielfältiger werdenden Finanzprodukte eine Art Supermarkt gäbe? Der FinTech-Markt, der ohnehin schon seit einigen Jahren für Wirbel sorgt, hat seit Inkrafttreten der PSD2 zusätzlichen Rückenwind vom Gesetzgeber erhalten. Banken sind jetzt verpflichtet, Drittanbietern Zugang zu Informationen über Kundenkonten zu gewähren, sofern der Kunde dem zustimmt. „Die Bank als Kontoanbieter wird am digitalen Zugang zum Kunden austauschbar. Damit intensiviert sich der Wettbewerb an der Kundenschnittstelle“, schildert Oliver Dlugosch von NDGIT die Drohkulisse für etablierte Geldhäuser. Dass die deutschen Banken, wenn sich nichts ändert, Marktanteile verlieren, prophezeit auch Christian Brüseke, General Manager Dach von Avoka Technologies. Ein Grund: „Die deutschen Banken sind nach wie vor nicht in der Lage und nicht willens, den Kunden in den Mittelpunkt ihrer Aktivitäten zu stellen.“ Dabei sind Open-Bank-Szenarien die Kehrseite der PSD2. Banken können zu einer Plattform werden, Open-APIBanken zu Supermärkten für Finanzprodukte machen. Bei diesem Ansatz unterstützt NDGIT die Banken. Wollen wir den Supermarkt-Vergleich aufrechterhalten, so fungiert das Unternehmen als Großhandel der besten FinTech-Funktionen. „APIs unserer Partner-FinTechs kann man innerhalb weniger Stunden anbinden, dank standardisierter Schnittstellen, Dokumentationen und Testumgebungen“, betont Dlugosch auch hier die Geschwindigkeit. Auf dem API-Marktplatz fin­den sich die verschiedensten Services – vom Finanz-Scoring bis zur Vorsorge-Analyse, von der Video-Legitimierung bis zur Robo-Advisory – um nur einige der Möglichkeiten aufzuzählen.

Deutsche Banken sind nicht in der Lage, den Kunden in den Mittelpunkt zu stellen.

„Wir sind definitiv kein Roboadvisor“, betont Dr. Christian Jasperneite, CIO von M.M.Warburg & Co. Die Rede ist dabei vom Warburg Navigator, der Ende letzten Jahres an den Start ging. „Wir glauben hier an einen hybriden Ansatz, der den Berater einschließt, um gemeinsam mit dem Kunden die richtigen Schlüsse zu ziehen“, ergänzt ihn sein Kollege Jan Kühne, seines Zeichens Leiter Digital beim auf eine lange Tradition zurückblickenden Vermögensverwalter. Das Angebot wird gemeinsam mit einem Berliner FinTech umgesetzt. „Elinvar steuert die Technologiekompetenz bei, wir bringen unsere Asset-Management-Kompetenz ein“, begründet er die Zusammenarbeit. Ein Begriff, der in Zusammenhang mit FinTechs und einer kurzen Time-to-Market immer wieder fällt, ist Agilität, die auch hier „selbstverständlicher Teil der Projektarbeit war“.

Nicht nur der Faktor Zeit

Die erfolgreichen Internetunternehmen haben es vorgemacht: Verständliche Benutzerführung, verlässliche Prozesse, wiederholte Anwendungen, alltäglicher Gebrauch – nur so fasst der Nutzer Vertrauen. „Sicherlich genießen Banken hier einen gewissen Vertrauensvorschuss, da dies eine der Grundtugenden ist – Stichwort Bankgeheimnis – die Kunden mit Banken verbinden“, meint Kühne. Sie stehen jetzt vor der schwierigen Aufgabe, das lang gewachsene Verhältnis in digitale Angebote zu überführen. „Für Banken im Bereich der digitalen Vermögensverwaltung bedeutet dies, dass sich ihre Angebote an der User Experience messen lassen müssen, die der Nutzer aus anderen Bereichen kennt und erwartet“, führt Kühne hierzu aus. „Die Sicherheit der Daten und der Schutz vor fremdem Zugriff ist eine weitere Grundvoraussetzung.“

Ingo Limburg kündigt das kontaklose Bezahlen per App über ein NFC-fähiges Smartphone an.

Ingo Limburg kündigt das kontaklose Bezahlen per App über ein NFC-fähiges Smartphone an.

„Dass ein System sicher ist, setzen die Kunden bei allem, was von der eigenen Bank oder Sparkasse kommt, schlicht voraus“, ist auch Ingo Limburg von Euro Kartensysteme überzeugt. Christian Schollmeyer vom Deutschen Sparkassen- und Giroverband erhärtet diese Aussagen und zitiert hierzu aus einer aktuellen Studie: „Laut GfK haben 90 Prozent der Kunden großes oder sehr großes Vertrauen in die Bezahlverfahren der Banken und Sparkassen.“ Er ist der Ansicht, dass sich dies auch in der Nutzung der Kontaktlos-Technologie niederschlägt, und Ingo Limburg geht sogar so weit, es als eine „Grundvoraussetzung“ zu betiteln. Um das gewachsene Vertrauen auch bei der Payment-Lösung mit dem Smartphone nicht zu gefährden, soll auch hier ab 25 Euro wie gewohnt eine PIN eingegeben werden, die im girocard-System lediglich verschlüsselt übertragen wird.

Klaus-Peter Bruns, Vorstands­vorsitzender der Fiducia & GAD IT AG, möchte sich diesen Vertrauensbonus mit einem für Banken eher unkonventionellen Geschäftsmodell zunutze machen. Mit GenoSharing.com soll es Kunden erleichtert werden, selten benötigte Waren und Güter mit anderen Menschen in der Region über eine Plattform gemeinschaftlich zu nutzen. „Gerade Leihen und Verleihen setzt gegenseitiges Vertrauen voraus“, erläutert er. Auf einer digitalen Plattform, wo man sich in der Regel (noch) nicht persönlich kennt, ist dieses allerdings nicht vorhanden. Hier treten die VR-Banken als Vertrauensbroker in Erscheinung und machen auf lokaler Ebene „den Weg frei für die urgenossenschaftliche Idee des kollektiven Ko-Konsums“.

Stau und dichter Verkehr können schon ganz schön anstrengend sein. Vor allem als Mitglied der wachsenden Sharing Economy, wo keine Produkte, sondern nur Zeit mit Produkten erworben wird. Ein Stau erscheint da wie ein Artefakt aus längst vergangener, stehen gebliebener Zeit. Doch allem Anschein zum Trotz läuft sie kostbar weiter.

von Andreas Fuhrich

Im Netz, da sind die Räuber

Im Netz, da sind die Räuber

Die paraguayische Grenzstadt Ciudad del Este liegt im Dreiländereck zwischen Paraguay, Ar­gentinien und Brasilien. Dort ist nicht viel vom südamerikanischen Flair vieler Reiseprospekte zu erkennen. Denn die Stadt lebt vor allem vom Schmuggel. Also kein Ort, an dem sich Touristen unbedingt aufhalten müssen. Im vergangenen Jahr machte Ciudad del Este mit einer anderen Geschichte auf sich aufmerksam und gelangte so über die Nachrichten bis in die deutschen Wohnzimmer. Hintergrund waren schwer bewaffnete Räuber, die sich den Weg zum Tresor eines Geldtrans­portunternehmens freischossen und sprengten. Von mehreren Millionen US-Dollar Beute war die Rede.

Die Räuber fuhren im wahrsten Sinne des Wortes schwere Geschütze für ihren Raubzug auf und hinterließen eine Schneise der Verwüstung mit wilder Schießerei und Verfolgungsjagd. Weitaus ruhiger und präziser gehen demgegenüber moderne Diebe vor. Deren Ziel ist nicht das Erstürmen von Tresorräumen, sondern der leise und zugleich lohnende Raubzug – ohne Trommelfeuer und eher im Verborgenen. Gemeint sind die zahllosen Hackerangriffe und Diebeszüge in allen Branchen. Professionelle Angriffe, sogenannte „Advanced Persistent Threats“, treffen heutzutage nicht nur Unternehmen, sondern auch Regierungen und immer häufiger auch kritische Infrastrukturen, wie Netzbetreiber, Flughäfen oder Banken. Für die Kriminellen nach Auffassung des Ehrenvorsitzenden des Vorstandes des Frankfurter Ins­tituts für Risikomanagement und Regulierung e. V. (FIRM), Wolfgang Hartmann, ein lukratives Geschäft. Die Vorteile für moderne Gangster liegen seiner Meinung nach auf der Hand: „Die potenziellen Gewinne von Kriminellen durch Cybercrime sind hoch, die Finger muss man sich nicht mehr schmutzig machen und auch nicht Leib und Leben Dritter gefährden.“ Und Hartmann prognostiziert: „Es ist nur noch eine Frage der Zeit, bis eine Großbank ihre Geschäftstätigkeit durch Ausfälle im Zuge eines Cybercrime-Angriffs einstellen muss.“

Gefragt: Ganzheitliche Sicht, ganzheitliches Risikomanagement

Nun ist das Thema Cybergefahren kein ganz neues mehr und doch erstaunt es immer wieder, wie selbst große Konzerne mit ausgewiesenen Informationssicherheitsprozessen und Risikomanagement- sowie Complianceabteilungen in die Falle von Hackern tappen. Die Bandbreite der Einfallstore für digitale Gauner, Spione und Saboteure ist groß – von mangelnden Sicherheitsprozessen und -updates über veraltete und offene Systeme bis hin zum Social Engineering.

Apropos Social Engineering. Was in der Praxis häufig unterschätzt wird, ist die Phase, in der Täter Informationen über ihre Zielobjekte sammeln. Hierbei fallen in der Regel nur bedingt Spuren an. In der Praxis existieren hier höchst unterschiedliche Akteure. Exemplarisch seien hier die Desert Falcons genannt. Eine Gruppe von Cyber­söldnern, die vom Nahen Osten aus agieren und eine ganze Reihe verschiedener Methoden nutzen. So hat die Gruppe vielfältige Erfahrungen im Bereich des Social Engineerings, verwendet Malware für Windows-Systeme, mobile Malware für Android-Geräte, Infektionsvektoren, einschließlich Phishing-E-Mails, gefälschter Webseiten und falscher Social-Media-Konten. Zu den Opfern zählen sowohl Militär und Regierung als auch Finanz- und Handelsunternehmen, Forschungs- und Bildungsinstitutionen, Energieunternehmen und viele weitere Branchen. So griffen im Jahr 2016 die Desert Falcons die Android-Smartphones von israelischen Soldaten an, indem sie zuvor eine aufwendige Social-Engi­neering-Kampagne gestartet hatten. Konkret legten die Angreifer bei Facebook gefälschte Profile von jungen Frauen an.

Anschließend nahmen die nicht real existierenden Frauen über die Facebook-Messenger-Funktion Kontakt auf und bauten über einen recht langen Zeitraum ein Vertrauensverhältnis auf. Ganz am Ende wurde auf den Android-Geräten ein Spionageprogramm übermittelt. Ein weiteres Beispiel beschreibt Timo Steffens, der seit vielen Jahren Hackerangriffe analysiert, in seinem Buch „Auf der Spur der Hacker“: Die Hacker-Gruppe Lotus Blossom verschickte im Jahr 2016 gefälschte Einladungen für eine Sicherheitskonferenz des Sicherheitsunternehmens Palo Alto. Empfänger waren primär Teilnehmer aus den vergangenen Jahren. Angehängt war ein Word-Dokument, das eine bekannte Schwachstelle in Windows ausnutzte. Wenn der Empfänger das Dokument öffnete, wurde unbemerkt der Emissary-Trojaner installiert.

Deutlich wird in beiden Fällen, dass die Ursache für den erfolgreichen Angriff im Ausnutzen eines Vertrauensverhältnisses lag. Eine rein technische Maßnahme hätte den Angriff nur bedingt verhindern können.

Silostrukturen als Einladung für Täter

In der Praxis zeigt sich, dass viele Unternehmen auf eine komplexe Verflechtung aus eigenen Lösungen und Standardsoftware-Programmen zurück­greifen, die über Jahre gewachsen ist. Dadurch entstehen viele Insellösungen und Silos, die keine einheitliche Datenerfassung, Dokumentation und Interpretation ermöglichen. Für Risikomanager und Entscheider lassen sich daraus keine (oder nur schwer) valide Informationen zur Unternehmens­steuerung ziehen. Mit anderen Worten: Das Unternehmen und seine Führungsmannschaft bewegen sich im Blindflug durch die Risikowelt.

Wichtig ist es daher, bessere Vorhersagen treffen zu können. Dies erscheint umso dringlicher, als neue Technologien – wie Blockchain, Virtual Reality oder Machine Learning – immer mehr Branchen durchdringen. Was es bedeutet, ein Unternehmen heute vorausschauend zu steuern, erklären Günther Angerbauer und Markus Müller, Geschäftsführer der calpana business consulting GmbH, wie folgt: „Infolgedessen könnten die IIoT-basierten Risiko-Management-Systeme eine raschere Entscheidungsfindung aufgrund aktuellerer und weitreichenderer Daten ermöglichen.“

Über den Autor:

Frank Romeike zählt international zu den renommiertesten und führenden Experten für Risiko- und Chancenmanagement. Er ist Gründer des Kompetenzzentrums RiskNET – The Risk Management Network sowie Geschäftsführer und Eigentümer der RiskNET GmbH.

Fortgeschrittene Methoden und Technologien, wie etwa stochastische Simulationsverfahren oder Blockchain, ermöglichen eine bessere Antizipation von potenziellen Angriffsszenarien und Risiken. „Ähnlich wie beim Einsatz des IIoTs könnte diese Technologie die Fehler- und Manipulationshäufigkeit bei Datentransaktionen reduzieren“, so die Experten von calpana.

Mitarbeiter nicht vergessen

Doch bei aller Technikgläubigkeit vieler Organisationen wird der wesentliche Schlüssel für mehr Sicherheit vielfach vernachlässigt: der eigene Mitarbeiter. Informationssicherheit und Risikomanagement sind nur so gut wie die Menschen, die sie leben. Gleiches zählt für Mitarbeiter, die mit dem eigenen Smartphone im Unternehmen hantieren, filmen, Daten kopieren oder unachtsam mit sensiblen Unternehmensinformationen umgehen. Social Engineering, Hackerangriffe oder Spionagefälle in Unternehmen beweisen, dass Angreifer diese Schwächen für sich zu nutzen wissen.

Hier hilft ein Blick in die Luftfahrt, bei der ein gelebtes Risiko- und Krisenmanagement auf eine lange Historie verweisen kann. Hochtechnische Navigations- und Frühwarnsysteme und ausgefeilte Risikomanagement-Systeme haben zu einer hoch entwickelten Risikokultur und einem exzellenten Sicherheitsniveau geführt. Piloten üben im Flugsimulator den richtigen Einsatz von Risikomanagement-Methoden und die adäquate Reaktion in Krisen. Der Flugsimulator stellt eine realitätsnahe Trockenübung dar und vereint Elemente aus Kreativitäts-, Szenario- und Simulationstechniken.

Diese Erkenntnisse sollten auch im Bereich der Informationssicherheit beherzigt werden. Denn die neuen Räuber sind leise und im Netz.

Sustainable Development 2018

Aus dem Zusammenspiel von Digitalisierung und Nachhaltigkeit erwachsen smarte, grüne Lösungen.

Längst reichen schöne Worte und Lippenbekenntnisse nicht mehr aus – viele Bürger und Verbraucher wollen Taten sehen. Die Unternehmen geraten damit unter Zugzwang, denn sie sollen nicht nur nachhaltig handeln, sondern nachhaltiges Handeln auch belegen.
Die gute Nachricht für die Unternehmen lautet: Verbraucher sind bereit, tiefer ins Portemonnaie zu greifen, um nachhaltige Produkte zu kaufen. Die schlechte Nachricht lautet: Immer mehr Verbraucher sind geneigt, Unternehmen für ihr Verhalten abzustrafen.

Zugleich wächst die Erwartungshaltung, dass Unternehmen sich verantwortungsvoll zeigen und Nachhaltigkeit fördern. Laut einer Studie des Meinungsforschungsinstituts Nielsen aus dem Jahr 2015, in der über 30 000 Verbraucher in 60 Ländern befragt wurden, gaben zwei Drittel der Befragten an, bereit zu sein, mehr Geld für nachhaltige Produkte auszugeben.
Kaufentscheidungen seien davon beeinflusst, ob ein Unternehmen für gesellschaftliche Werte in seinem Handeln stehe und Umweltaspekte berücksichtige. Fast zeitgleich belegte eine Untersuchung von Cone-Communications, dass 91 Prozent der Verbraucher in den wichtigsten Industriestaaten von den Unternehmen verlangten, soziale und ökologische Probleme anzugehen. Welche Folgen die vermeintliche oder reale Missachtung sozialer und ökologischer Aspekte für die Unternehmen haben kann, zeigte eine Untersuchung von Globe Scan und BBMG, bei der rund 16 000 Personen in 16 Ländern in sowohl städtischen als auch ländlichen Gebieten befragt wurden: 26 Prozent der Befragten gaben an, sie hätten Unternehmen in der Vergangenheit für ihr Verhalten belohnt, allerdings sagten 28 Prozent, sie hätten die Firmen für ihr Verhalten abgestraft. Dem entsprach ein niedriges Vertrauen vor allem zu internationalen Konzernen, das weitaus geringer als etwa zu Forschungs- und Bildungseinrichtungen, zu Landsleuten, Wohlfahrtsorganisationen, NGOs oder der UNO war und welches nur knapp über dem Vertrauen in die Presse oder die nationale Regierung lag. Die Unternehmen sind also gefordert, etwas zu tun, wenn sie nicht Absatzmärkte verlieren möchten und an Umsatz und Rendite einbüßen wollen. Doch nicht nur die Erwartung der Verbraucher spielt bei den Betrachtungen eine Rolle: Auch die Politiker haben das Thema „Nachhaltigkeit“ entdeckt und auf nationaler wie auf europäischer Ebene Aktionspläne verabschiedet. So beauftragte die EU-Kommission 2016 ein Expertengremium, Ideen für eine nach­haltige Finanzstrategie zu formulieren.

In dem im März dieses Jahres vorgestellten Aktionsplan, der auf den Anregungen der Experten basierte, wird eine „EU-Nachhaltigkeits-Taxonomie“ gefordert, die einheitliche Definitionen für nachhaltige Investitionen liefern sowie Leitlinien für Aktivitäten formulieren soll, die als klimaschützend und umwelt- bzw. sozialverträglich gelten. Konkret verlangt werden die Ausrichtung von Kapitalströmen „in nachhaltigere Investitionen“, die Berücksichtigung finanzieller Risiken aufgrund von Klimawandel, Umweltzerstörung und sozialen Ungerechtigkeiten im Risikomanagement und „mehr Transparenz und langfristiges Handeln“ von Finanzmärkten und Unternehmen.

Lieferketten mit der Blockchain-Technologie abbilden

Hier kommt die Digitalisierung ins Spiel, denn digitale Lösungen sorgen für eben jene Transparenz, die von Finanzmärkten und Unternehmen erwartet wird. Beispiel die Blockchain-Technologie: Es handelt sich hierbei um verteilte, fälschungssichere Datenstrukturen, mit deren Hilfe sich Transaktionen abbilden lassen – chrono­logisch korrekt, nachvollziehbar und unveränderlich. Die Blockchain-Technologie kann eingesetzt werden, um Eigentumsverhältnisse sauber zu dokumentieren, aber auch um Lieferketten entlang bestimmter Produkte abzubilden. Davon betroffen können Produkte sein, deren Nachhaltigkeit besonders betont werden soll, etwa das in Wolfsburg oder Stuttgart produzierte Auto, bei dem der Nachweis erbracht werden soll, dass alle Komponenten recyclebar sind und in den Produktionskreislauf einfließen. Oder aber Produkte wie Diamanten, bei denen der Nachweis der sauberen und sozial verträglichen Schür­fung wichtig ist – Stichwort Blutdiamanten.

Cloudbasierte Plattform für Nachhaltigkeit

Jörg Walden, CEO und Gründer der iPoint-systems GmbH, sieht mit seiner Lösung, dem iPoint SustainHub, den Zugang zur Lieferkette für „schwarze Schafe“ zunehmend erschwert. Bei dem iPoint SustainHub handelt es sich um eine universell nutzbare cloudbasierte Plattform, die einen Zugang zu unterschiedlichen Applikationen im Bereich Nachhaltigkeit und Compliance erlaubt. „Um diesen Ansatz hochgradig automa­tisiert durchzuführen und gleichzeitig Nachhaltigkeitspotenziale neuer Ge­schäfts­modelle über den gesamten Lebenszyklus zu erschließen, sind mög­lichst durchgängig digitale Modelle not­wendig“, erläutert Walden. Angesichts der hoch individualisierten Produkte und der „Heterogenität von Zulieferern und Fertigungsteilen“ benötige man die Digitalisierung der Prozesse.

„Komplexen Energie­markt darstellen“

Ähnlich sieht es der Firmenchef des Online-Energiebeschaffungsportals enPortal Clemens Graf von Wedel, der aber auch den pekuniären Nutzen für die Unternehmen betont: „Die Digitalisierung vereinfacht Prozesse, indem handelnde Partner vernetzt werden sowie Austausch und Verarbeitung von Daten automatisiert erfolgen. Das führt zu erheblichen Einsparungen bei den eingesetzten Material- und Personalressourcen bei gleichzeitig erhöhter Qualität und Prozessgeschwindigkeit.“ Ziel des Portals, in dem über zehn Jahre Entwicklungsarbeit stecken, war es nach Worten von Wedels, „den komplexen Energiemarkt in einem cloudbasierten Handelsmarktplatz darzustellen und maximalen, fairen Wettbewerb unter den zahlreichen Lieferanten zu ermöglichen“. Die Plattform entwickle sich inzwischen auf der Grundlage von Kunden- und Lieferantenanforderungen weiter. 

von Dr. Ralf Magagnoli

Forschung für die vernetzte Gesellschaft

Die TREND-REPORT-Redaktion sprach mit den Vordenkern und Gründern des Weizenbaum-Instituts über ihre Forschungsgruppen und dringliche Fragen im Kontext einer vernetzten Gesellschaft.

 

Im Gespräch mit Prof. Dr.-Ing. Norbert Gronau, Universität Potsdam

Herr Prof. Gronau, was ist Ihr Forschungsbereich?
Betriebliches Wissensmanagement, dazu gehört auch Weiterbildung, Trai­ning on the Job und E-Learning sowie die Gestaltung von wettbewerbsfähigen Architekturen industrieller Informationssysteme im Bereich Industrie, Handel, Dienstleistung und öffentlicher Sektor.

Das Ganze erforschen wir mit über 40 Mitarbeitern in verschiedenen Gruppen. Zu meinem Forschungsschwerpunkt gehört auch das Forschungs- und Anwendungszentrum Industrie 4.0 in Potsdam, das vollständig autonome Industrie-4.0-Prozesse auf der Basis des verfügbaren Stands an Hardware, Software und intelligenter IoT-Technik anbieten und für verschiedene Branchenszenarien konfigurieren kann.

Welche Fragen stehen im Fokus der Forschungsgruppe „Bildung und Weiterbildung in der digitalen Gesellschaft“?
Insbesondere, wie im Zeitalter der Digitalisierung die zukünftige individuelle und prozessnahe Qualifizierung von Mitarbeitenden aus­sehen muss. Wie können geeignete Lehr-Lern-Szenarien entwickelt und erprobt werden, u. a. in unserem Digitallabor, und wie sehen digitale Selbst­lernangebote aus?

Um wirtschaftliche Qualifizierungsangebote zu machen und um zielgerichtet den Kompetenzbedarf zu befriedigen, sind Metho­den zur Ermittlung des individuellen Weiterbildungsbedarfs zu ent­wickeln.

 

Herr Prof. Gronau, vielen Dank für das Gespräch.

 

Weiterführende Informationen:
https://vernetzung-und-gesellschaft.de/

 

Forschung für die vernetzte Gesellschaft

Die TREND-REPORT-Redaktion sprach mit den Vordenkern und Gründern des Weizenbaum-Instituts über ihre Forschungsgruppen und dringliche Fragen im Kontext einer vernetzten Gesellschaft.

 

Im Gespräch mit Prof. Dr. Axel Metzger, HU Berlin

Herr Prof. Metzger, womit beschäftigen Sie sich in Ihrer Forschungsgruppe „Daten als Zahlungsmittel“?
Aktuell wird über einen Richtlinienvorschlag verhandelt, der Daten als Gegenleistung von Verträgen regeln könnte, bei denen der Verbraucher digitale Inhalte erwirbt. Wir beteiligen uns an diesem Gesetzgebungsvorhaben durch konkrete Stellungnahmen und Formulierungsvorschläge.

Jenseits der Tagesaktualität denken wir über die Frage nach, wie die Selbstbestimmung der Verbraucher auf den digitalen Märkten, insbesondere auch im Hinblick auf ihre Daten, gestärkt werden kann. Verbraucher äußern zwar immer abstrakte Sorgen über den Schutz ihrer Daten, verhalten sich dann aber unvorsichtig. Hier setzen wir mit einem interdisziplinären Forschungsdesign von Juristen, Psychologen und Wirtschaftsinformatikern an.

Welche Strategie verfolgt die Europäische Kommisson mit dem „digitalen Binnenmarkt“?
Sie verfolgt damit ganz unterschiedliche Regelungsziele von der Reform des Urheberrechts über das Vertragsrecht für digitale Inhalte bis zu neuen Regelungen über den Zugang zu öffentlichen und privaten Daten. Auch wenn manches unausgegoren und wenig kohärent wirkt, so ist der Kommission doch zu bescheinigen, dass sie wesentlich agiler auf die Herausforderungen durch Digitalisierung und Vernetzung reagiert als der deutsche Gesetzgeber.

Kritisch ist die einseitige Fokussierung auf die wirtschaftlichen Aspekte, die in den begrenzten Kompetenzen der EU begründet ist.

 

Herr Prof. Metzger, vielen Dank für das Gespräch.

 

Weiterführende Informationen:
https://vernetzung-und-gesellschaft.de/

 

Vertrauensbroker in Zeiten der Share Economy

Gastbeitrag von Klaus-Peter Bruns, Vorstandsvorsitzender der Fiducia & GAD IT AG

Die Share Economy setzt kollektive Nutzung an die Stelle individuellen Eigentums: Temporärer Gebrauch steht vor dauerhaftem Besitz. Dieses Credo greift die Genossenschaftsidee aus dem 19. Jahrhundert auf und formuliert sie für die digitale Ära neu. Mit dem Unterschied allerdings, dass man sich in früheren Genossenschaften noch persönlich kannte. Heute jedoch handelt es sich um virtuelle Kollektive, die sich digital zu Communitys zusammenschließen.

Wie sich der genossenschaftliche Grundgedanke in digitalen Plattformen manifestiert, schildert Klaus-Peter Bruns.

Persönlich kennt man sich in solchen Communitys normalerweise nicht – gleichwohl müssen alle einander vertrauen. Es ist also ein Partner nötig, der für gegenseitiges Vertrauen sorgt. VR-Banken sind dazu prädestiniert, da sie selbst Gemeinschaften auf Gegenseitigkeit sind. Wie sie ganz konkret diese Rolle eines Vertrauensbrokers ausfüllen können, veranschaulicht die neue Verleih-Plattform GenoSharing.com, die noch im laufenden Jahr in die „Family & Friends“-Testphase geht. Mit GenoSharing.com erhalten Nutzer künftig die Möglichkeit, über eine vertrauenswürdige Plattform das nachhaltige Partizipationsmodell der Share Economy zu nutzen.

Digitale Plattformangebote wie GenoSharing.com sind von großer Bedeutung für die Wettbewerbsfähigkeit der Genossenschaftsbanken. Denn sie zeigen, inwieweit unkonventionelle Geschäftsmodelle ihre Wertschöpfung intensivieren können. Beispielsweise arbeitet die Fiducia & GAD momentan an einer überregionalen Plattform, mit der VR-Banken künftig auch für bankfremde Ökosysteme als Vertrauensbroker im digitalen Raum agieren können – etwa für Online-Portale von Stadtwerken, lokalen Tauschbörsen oder digitalen Bürgerangeboten.

Eine solche übergreifende Drehscheibe versetzt Genossenschaftsbanken dann in die Lage, ihre traditionelle Stärke der regionalen Verwurzelung auch im digitalen Zeitalter in einen Wettbewerbsvorteil umzumünzen – und zwar durch noch mehr Kundennähe.
Das Plattformkonzept der Fiducia & GAD ermöglicht den VR-Banken überdies, den digitalen Wandel in ihrer Region aktiv mitzugestalten. Das betrifft zum Beispiel Trends wie Industrie 4.0 oder additive Fertigung, von denen Analysten auch in Hochlohnländern eine Wiederbelebung der regionalen Warenproduktion erwarten: Hierbei könnte eine Firmenkundenplattform, ähnlich wie GenoSharing.com aufgebaut, bremsende Investitionshürden aus dem Weg räumen.

Denn durch kollektive Nutzung neuester Technologien bekämen auch klei­nere Mittelständler mit nur sporadischem Bedarf die Chance zur additiven Fertigung hochwertiger Einzelstücke oder Kleinserien. Die Genossenschaftsidee aus dem 19. Jahrhundert manifestiert sich in einer solchen Digitalplattform erneut: Der Grundgedanke erweist sich somit als zeitgemäß und genauso vital wie am ersten Tag.

Weitere Informationen unter:
www.fiduciagad.de

Forschung für die vernetzte Gesellschaft

Die TREND-REPORT-Redaktion sprach mit den Vordenkern und Gründern des Weizenbaum-Instituts über ihre Forschungsgruppen und dringliche Fragen im Kontext einer vernetzten Gesellschaft.

 

Im Gespräch mit Frau Prof. Dr.-Ing. Ina Schieferdecker, TU Berlin / Fraunhofer FOKUS

 

Frau Prof. Schieferdecker, welche zentralen Fragen rund um das Internet of Things (IoT) sind noch ungeklärt?
Die Technologien für das Internet der Dinge sind bis dato nur mit Einschränkungen als interoperabel oder sicher zu bezeichnen. Es laufen diverse Gespräche auf politischen und Arbeitsebenen, durch welche Maßnahmen Funktionalität, Ska­lierbarkeit, Sicherheit und Nachvollziehbarkeit gewährleistet und abgesichert werden können.

In Berlin bieten wir dazu im Fraunhofer-Leistungszentrum „Digitale Vernetzung“ das Transferzentrum IoT an. Dort erhalten Nutzer, Hersteller und Interessenten Schulungs- und Beratungsangebote zur Anwendung von qualitativ hochwertigen IoT-Lösungen. Am Weizenbaum-Institut arbeiten wir an Fragen der Verantwortung im und mit dem IoT.

Inwieweit beschäftigt Sie das Thema künstliche Intelligenz (KI) in Ihrer Forschungsgruppe „Kritikalität softwarebasierter Systeme“?
Wir untersuchen, inwieweit Software durch die mit KI und Daten ermöglichten neuen Di­men­sionen der Automatisierung auch neue mögliche Fragilitäten oder Angreifbarkeiten mit sich bringt. Dabei schauen wir insbesondere auf die nötigen Aus- und Weiterbildun­gen, aber auch auf die passende Benutzbarkeit und Bedienbarkeit der Systeme.

Da es keine 100-prozentig korrekte Software oder eben KI gibt und geben wird, muss ein souveräner Umgang mit diesen Systemen sowohl in Normalsituationen als auch in Fehler- oder Ausfallsituationen ermöglicht werden.

 

 

Frau Prof. Schieferdecker, vielen Dank für das Gespräch.

 

Weiterführende Informationen:
https://vernetzung-und-gesellschaft.de/

 

Forschung für die vernetzte Gesellschaft

Die TREND-REPORT-Redaktion sprach mit den Vordenkern und Gründern des Weizenbaum-Instituts über ihre Forschungsgruppen und dringliche Fragen im Kontext einer vernetzten Gesellschaft.

 

Im Gespräch mit Prof. Dr. Martin Emmer, FU Berlin

 

Herr Prof. Emmer, welchem Forschungsbereich haben Sie sich verschrieben?
Als Mediennutzungsforscher blicke ich vor allem auf politische Kommunikationsinhalte und gesellschaftliche und politische Partizipation. Am Weizenbaum-Institut leite ich die Forschungsgruppe „Digital Citizenship“, in der es darum geht, wie sich unsere Vorstellungen von „Bürgerschaft“ in einer sich zunehmend digitalisierenden Gesellschaft wandeln.

Was wollen Sie herausfinden?
Wir haben heute durch Internet, soziale und mobile Medien viel mehr Möglichkeiten, uns zu informieren, miteinander zu interagieren, uns zu engagieren, als das früher der Fall war.

Unsere Kernfrage ist deshalb, ob diese neuen Handlungsoptionen unsere eigene Haltung gegenüber der Gesellschaft und der Politik verändern:

Erwarten wir mehr von der Politik, etwa schnellere Problemlösungen, individuellere Antworten auf unsere Lebenslagen, mehr Responsivität von Politikern oder auch mehr direkte Mitentscheidungsmöglichkeiten?

Reagieren wir anders auf politische Nachrichten und Entscheidungen, führen diese zu anderen Gefühlen, Einstellungen oder Handlungen als früher?

Lassen sich durch solche möglicherweise neu entstehenden Bürgernormen weitergehende Veränderungen in Politik und Gesellschaft erklären?

Solchen Fragen nähern wir uns mit einer großen Bandbreite von Methoden, etwa klassischer Umfrageforschung, Gruppendiskussionen, ethnografischen Beobachtungen oder auch der automatisierten Analyse digitaler Nutzungsdaten.

 

 

Herr Prof. Emmer, vielen Dank für das Gespräch.

 

 

Weiterführende Informationen:
https://vernetzung-und-gesellschaft.de/

 

 

 

Design Engineering: Dinge besser machen

Neue Strategien, neue Prozesse und neue Organisationen sind gefragt. Darüber sprach die TREND-REPORT-Redaktion mit Mukul Dhyani, Country Head Germany & Switzerland bei Wipro.

Herr Dhyani, über Digitalisierung und digitale Transformation ist in den letzten Jahren viel diskutiert und publiziert worden. Der Grundton: „Adapt or die“. Was müssen Organisationen aus Ihrer Sicht heute tun, um zu digitalen Unternehmen zu werden?
Aktuell haben rund 90 Prozent der Unternehmen eine digitale Strategie – aber weniger als die Hälfte haben bisher etwas substanziell umgesetzt. Zwischen Theorie und Praxis klafft eine große Lücke. Dabei bieten die neuen Technologien große Chancen, agiler zu werden, schneller zu wachsen und sich gegenüber dem Wettbewerb einen Vorteil zu verschaffen.

In der Vergangenheit haben Unternehmen Wünsche an die IT formuliert, um ihre Ziele zu erfüllen. Aktuell scheint es eher so zu sein, dass die Technologie einen enormen Schritt nach vorn gemacht hat und die vorhandenen Geschäftsmodelle hinterherhinken.
Das ist korrekt. Die Technologien, um die digitale Transformation umzusetzen, sind vorhanden. Jetzt geht es vor allem darum, bestehende Prozesse und Geschäftsmodelle zu analysieren und neu zusammenzusetzen. Wir nennen diesen Prozess „Design Engineering“. Unternehmen wollen Dinge besser machen, indem sie Abläufe neu definieren, eine Produktstrategie von Grund auf neu planen oder eine neue Dienstleistung anbieten. Wir helfen ihnen dabei, diese neue Strategie mit den verfügbaren, modernen Technologien zu gestalten und die neuen Lösungen optimal mit der vorhandenen In­frastruktur zu verbinden.

Es geht jetzt vor allem darum, bestehende Geschäftsmodelle zu analysieren.

Dazu müssen die IT-Berater aber nicht nur die wichtigsten IT-Entwicklungen, sondern auch die wirtschaftlichen und branchenspezifischen Zusammenhänge und den Kontext verstehen.
Ja, das stimmt. Früher bekam der CIO die Blaupause eines neuen Prozesses und kümmerte sich dann um Implementierung und Tests. Heute beginnt die Arbeit auf der Vorstandsebene. CIO und Marketing-Team legen beispielsweise fest, wie die Kundenkommunikation laufen soll, und nach die­ser Vorgabe wird der Prozess model­liert. Die Premium-Automobilhersteller in Deutschland stellen aktuell praktisch alle Abläufe auf den Prüfstand, kümmern sich aber beim Neu-Design überhaupt nicht mehr um Technologie. Die zugrunde liegende Annahme ist, dass die passende Technologie schon gefunden wird.

Das erfordert eine enge Zusammenarbeit zwischen dem IT-Dienstleister und dem Kunden.
IT und Business müssen bei der Umsetzung Hand in Hand gehen, das Stichwort dazu lautet „Co-Creation”. Lassen Sie es mich anhand eines Beispiels erläutern: Ein großer Automobilhersteller hat ein Problem identifiziert und kommt mit dem Wunsch auf uns zu, hier eine Veränderung herbeizuführen. Vielleicht wollen sie den Kontakt zum Kunden über einen virtuellen Showroom realisieren. Wir stellen dann ein Team aus IT-Experten, Marketingfachleuten, Designern und weiteren Spezialisten, etwa mit Ingenieur-Hintergrund, zusammen. Im ersten Schritt analysieren wir die Ausgangslage, werten große Datenmengen aus und diskutieren unsere Erkenntnisse mit dem Kunden. Danach spezifizieren wir die Anforderungen und grenzen sie ein. Diese Ergebnisse diskutieren wir wiederum mit dem Kunden und designen im Anschluss daran die aus unserer Sicht beste Lösung. Erst danach implementieren wir IT, führen Tests durch und passen die Lösung immer weiter an. Wenn wir sicher sind, kommt es zu einem großen Launch und wir nutzen dabei alle Technologien, die hier sinnvoll sind – ob Social, IoT, künstliche Intelligenz (KI), Big Data oder Cloud.

Bezogen auf Design Engineering eröffnen uns KI und Blockchain enorme Möglichkeiten.

Welche Rolle spielt die künstliche Intelligenz als Technologie im Rahmen des Design Engineerings?
KI hilft, die richtigen Entscheidungen zu treffen. Im Design-Engineering-Prozess sammeln wir große Mengen an Daten. Um aus diesen „Big Data” wertvolle Informationen herauszufiltern oder Muster in ihnen zu erkennen, benötigen wir KI. Menschliche Data Scientists würden enorm viel Zeit benötigen, um zu ähnlichen Ergebnissen zu kommen wie unsere bewährte Holmes-Plattform. Allerdings muss man auch einschränkend anmerken, dass die Qualität der Ergebnisse immer von der Qualität der Ausgangsdaten abhängt. Wenn diese nicht stimmt, kann auch KI nicht viel ausrichten.

Welche Technologien werden Ihrer Einschätzung nach unsere Gesellschaft in den kommenden Jahren am stärksten prägen?
Künstliche Intelligenz und die Blockchain. KI wird immer wichtiger, um die enormen und stetig weiter wachsenden Datenmengen zeitnah auswerten zu können. Mit den daraus gewonnenen Informationen sind Unternehmen dann in der Lage, ihre Abläufe immer weiter zu verbessern. Die Blockchain wird es uns ermöglichen, Transaktionen auf Mikroebene vollautomatisch, zuverlässig und kosten­günstig ablaufen zu lassen, mit sogenannten Smart Contracts. Bezogen auf Design Engineering eröffnen uns KI und Blockchain enorme Möglichkeiten, Prozesse einmal zu definieren und dann quasi auf Autopilot laufen zu lassen. Das wird die Gesellschaft und die Wirtschaft in den kommenden Jahren auf eine tief greifende Art und Weise verändern.

Weitere Informationen unter:
www.wipro.com

Digital Customer Empathy

Wie Kundenbeziehungen im Zeitalter der digitalen Transformation neu gedacht werden, erläutert Martin Wild, CEO von SOGEDES, im Gespräch mit der Redaktion.

„Unternehmen wollen ein außergewöhnliches Kundenerlebnis bieten“, betont Wild. Customer Empathy beschreibt dabei, was dafür heute mehr denn je wichtig ist, nämlich „die Fähigkeit, Gefühle, Motive, Gedanken und Merkmale von Kunden ganzheitlich zu verstehen und darauf laufend mit adäquaten Lösungen zu reagieren“.

Empathie ist eine Eigenschaft, die Menschen auszeichnet. Und di­gitale Technologien können uns sinnvoll und effizient darin unterstützen, mehr Empathie gewinnbringend für alle zu leben. Die richtige Kombination aus Mensch und Technologie ist das Geheimnis.

„Digital Customer Empathy“ bringt daher die Sogedes-Mission – an deren Anfang immer das Verständnis der Customer Journey, des Service-Prozesses steht – „gut auf den Punkt“.

„Zu dieser Mission gehört es, in den Unternehmen Brücken zu bauen, organisatorische Silos und monolithische Lösungen aufzubrechen“, betont der Customer Engagement Evangelist Wild.

Martin Wild von Sogedes hilft Unternehmen, Kundenerlebnisse nachhaltig zu optimieren.

Menschen wechseln auf ihrer Customer Journey immer wie­der die Medien und erwarten dennoch personalisierten und schnel­len Service. Dies ermöglicht SOGEDES durch crossmediale Kommunikationsplattformen, die Sprache, E-Mail, Social Media, Chat, BOTs oder WebRTC verbinden und durch Prozessautomation so­wie künstliche Intelligenz ergänzen.

 

www.sogedes.com

 

 

Das ausführliche Interview mit dem Customer Engagement Evangelist Martin Wild finden Sie hier:
Unsere Mission: Digital Customer Empathy

 

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons

Freiraum für strategische HR-Arbeit

Gastbeitrag von Wieland Volkert, Country Manager Europe Central, PeopleDoc Germany GmbH

Die digitale Transformation hat deutlich größere Auswirkungen auf die Personalabteilungen, als dies viele HR-Manager derzeit ahnen oder wahrhaben wollen. Denn sowohl Arbeitsziele und -inhalte als auch die eingesetzten Werkzeuge werden sich massiv verändern.

Schon jetzt ist klar, dass die HR künftig zu dem strategischen Erfolgsfaktor im Unternehmen wird. Grund ist der immer härtere „War for Talents“. Er führt dazu, dass Personalabteilungen intelligentere Strategien entwickeln müssen, um die Besten der Besten für das Unternehmen zu gewinnen. Zudem müssen sie durch perfekte Services und gezielte Mitarbeiterförderung die Leistungsträger langfristig binden. Und schließlich ist die HR dafür verantwortlich, eine Infrastruktur aufzubauen, die in Personalfragen maxi­male Flexibilität, Rechtssicherheit und Wettbewerbsfähigkeit garantiert.

Eine Herkulesaufgabe! Zu meistern ist sie nur, wenn die HR von zeitfressenden Routinearbeiten befreit wird und genug Freiräume für strategische Aufgaben bekommt. Freiräume bedeuten aber nicht nur mehr Zeit, sondern auch die Chance, neue Ideen zu entwickeln und kreativ umzusetzen. Hier kommt die Technik ins Spiel, denn ohne innovative, leistungsfähige und zukunftsgerichtete Personalmanagementlösungen entstehen diese Freiräume nicht.

Doch was bedeutet innovativ, leistungsfähig und zukunftsgerichtet? Sicher nicht, dass Personaldaten nur digital abgespeichert und von der HR genutzt werden können. Innovativ sind Lösungen, die den Mitarbeiter in den Mittelpunkt stellen und ihm eine Nutzererfahrung bieten, die er von Amazon & Co aus dem privaten Bereich kennt. Leistungsfähig ist eine Software, die einfache digitale Workflows garantiert, mit denen die Effizienz der HR gesteigert wird. Zukunftsgerichtet sind cloudbasierte Systeme, die ständig aktualisiert und mit neuesten technologischen Features ausgestattet werden.

Beispiel „Robotic Process Automation“ (RPA): Mithilfe textbasierter Dialog­systeme können Anwendungen miteinander kommunizieren und Aktionen selbstständig ausführen. So ist es möglich, das Onboarding komplett zu automatisieren. Ein enormer Effizienzschub, bedenkt man, dass der Prozess bislang rund vier Wochen dauert. Ähnlich ist die Situation bei der Nachbearbeitung von Performance-Gesprächen sowie bei der Erstellung von Beschäftigungsnachweisen. Auch diese Arbeiten können von A wie Anlage des Dokuments bis Z wie Zustellung des Schreibens von RPA selbstständig erledigt werden.

Gerade bei Onboarding-Prozessen rät Wieland Volkert zum Einsatz von RPA.

Im Gegensatz zum Menschen sind RPA-Bots immer aktiv. Der Prozess startet sofort, wird anwendungsübergreifend ausgeführt; Daten werden über mehrere Systeme hinweg aktualisiert. Nichts wird auf die lange Bank geschoben, schlampig ausgeführt oder vergessen. RPA-Bots bilden eine wichtige Grundlage zur Optimierung des maschinengestützten Lernens und für neue Anwendungen im Umfeld der künstlichen Intelligenz. Kurzum: RPA ist für moderne Personalmanagementlösungen unverzichtbar.

 

www.people-doc.de

Wir bringen Deutschland ins KI-Zeitalter

Dr. Andreas Liebl, Leiter der appliedAI-Initiative von UnternehmerTUM sprach mit der Redak­tion über die Chancen von künstlicher Intelligenz für die Industrie und seine neue Datenbank, in der erstmals Deutsch­lands beste KI-Start-ups gelistet sind.

 

Herr Dr. Liebl, wofür steht ihr Haus und wie unterstützen Sie die deutsche Wirtschaft?

UnternehmerTUM steht seit 15 Jahren für die erfolgreiche Schulung, Finanzierung, Förderung und Beratung von Studenten, Gründern und Unternehmen im Bereich Entrepreneurship. Wir sind heute Europas führendes Zentrum für Innovation und Gründung, mit einem jährlichen Durchlauf von durchschnittlich 100 Start-ups, 1500 Workshop-Teilnehmern und 100 Firmen. Bekannte Start-ups wie die KI-Sensorik-Firma Konux oder Lilium mit seinem Lufttaxi sind mit unserer Hilfe am Markt durchgestartet. Daneben investieren wir mit unserem Fonds auch in Start-ups wie Flixbus.

 

Was ist das Ziel ihrer appliedAI-Initiative?

Wir wollen Deutschland ins KI-Zeitalter bringen, indem wir Anwendungen von künstlicher Intelligenz für die Industrie beschleunigen.

 

Wieso haben Sie die Initiative gegründet?

Wir sehen leider noch große Defizite. Mit der TU München haben wir vor etwa zwei Jahren eine Studie unter deutschen Firmen zum Thema KI durchgeführt. Das Ergebnis war verheerend. Kaum einer nutzte KI und wenn, dann wenig effizient. Selbst große Konzerne experimentierten meist nur mit Pilotprojekten oder hatten maximal eine KI-Anwendung im Einsatz. Meist fehlten Fachkräfte.

 

Welche Erfolge können Sie schon mit appliedAI verbuchen?

Wir haben bereits 28 Partner aus Politik, Wirtschaft und Forschung gewinnen können. Mit dabei sind internationale Konzerne wie Google oder Nvidia, aber auch deutsche Unternehmen wie Linde, Allianz oder BayWa. Wir haben über 100 Personen in Workshops ausgebildet, über 20.000 Personen erreicht und erste Prototypen gebaut. Der enorme Zulauf in so kurzer Zeit hat uns überwältigt und sehr gefreut – unsere Initiative gibt es ja erst seit fünf Monaten.

 

Wie können Unternehmen von appliedAI profitieren?

Als gemeinnützige Initiative ermöglichen wir den offenen Austausch an einem neutralen Ort zwischen Forschung, Wirtschaft und Gründern. Wir bringen etwa Firmen mit KI-Start-ups oder renommierten KI-Forschern zusammen, schulen Mitarbeiter und Manager in unserem eigenen KI-Lab und beraten Firmen, welche KI-Software für sie Sinn macht und wie sie diese praktisch einsetzen können. Wir verringern Eintrittshürden und dienen als Wegweiser.

 

Welche Hilfe für die praktische Anwendung von KI bieten Sie noch?

Wir bauen gerade eine Datenbank auf, in der alle relevanten deutschen KI-Start-ups verzeichnet sind. Aus insgesamt 468 haben wir 237 als vielversprechend gelistet, 132 haben es in unsere Hauptliste geschafft, die wir als etabliert erachten. Damit sollen Firmen leichter passende Partner für die Implementierung von KI finden. Zusätzlich erstellen wir aktuell eine „Landkarte“ wichtiger KI-Tools. Hier existiert eine Menge sehr guter, einfach zu bedienender, aber kaum bekannter Werkzeuge.

 

Was sind die größten Herausforderungen, Künstliche Intelligenz effizient im Unternehmen einzusetzen?

Interessanterweise sind ca. 80 Prozent des Aufwands in einem KI-Projekt organisatorische und operative Fragestellungen und nicht technologische. Unternehmen brauchen eine Antwort auf die Frage, wie sie Zugriff auf Daten auch innerhalb des eigenen Unternehmens erhalten, wie die Daten aufbereitet werden können und insbesondere wie man sein Unternehmen auf die Anwendung der entwickelten KI-Systeme vorbereitet. KI benötigt Vertrauen – und das muss wie bei Menschen aufgebaut werden.

 

Welchen Stellenwert hat Künstliche Intelligenz für Deutschland?

KI wird unser Leben beeinflussen – ob wir das wollen oder nicht. Gerade als eine führende Exportnation sollten wir uns damit intensiv auseinandersetzen. Deutsche Exportschlager wie Autos, Fabrik- und Agrarmaschinen oder Medizintechnik müssen wir mit Hilfe von künstlicher Intelligenz besser machen, um langfristig marktfähig zu bleiben.

 

Wie soll das genau funktionieren, wenn China und die USA gerade in punkto KI den Ton angeben?

Wir müssen uns auf unsere Stärken besinnen. Und das sind unsere fantastisch ausgebildeten Fachkräfte. Etwa gilt das Wissen von deutschen Ingenieuren oder Medizinern weltweit mit als führend. Mit diesem Wissen müssen wir eine KI-Software füttern und lernfähig machen. Zum Beispiel kann man das gut im Diagnostik-Bereich umsetzen. Dort werden schon mit dem Wissen von Ärzten KI-Anwendungen angelernt, die dann Krankheitsbilder oder Symptome automatisch erkennen und deuten – und das besser und schneller als ein erfahrener Mediziner jemals könnte.

 

 

https://appliedai.de

 

 

 

Aufmacherbild / Personenfoto / Quelle / Lizenz
Foto: UnternehmerTUM/P. Ranz

Unsere Mission: Digital Customer Empathy

Im Interview erläutert Customer Engagement Evangelist Martin Wild, CEO von der SOGEDES GmbH, wie digitale Technologien so eingesetzt werden, dass sie uns sinnvoll und effizient darin unterstützen, mehr Empathie gewinnbringend für alle zu leben.

 

Herr Wild, was bedeutet für Sie Digital Customer Empathy?

Unternehmen wollen ein außergewöhnliches Kundenerlebnis bieten.
Customer Empathy beschreibt dabei aus unserer Sicht, was dafür heute mehr denn je relevant und wichtig ist: die Fähigkeit, Gefühle, Motive, Gedanken und Merkmale von Kunden ganzheitlich zu verstehen. Und darauf laufend mit adäquaten Lösungen zu reagieren.

Empathie ist eine Eigenschaft, die uns Menschen vom Rest der Welt unterscheidet und auszeichnet. Andererseits sind digitale Technologien heutzutage in der Lage, uns sinnvoll und effizient darin zu unterstützen, mehr Empathie gewinnbringend für alle zu leben. In der richtigen Kombination aus Mensch und Maschine liegt das Geheimnis.

Daher bringt unser Claim „Digital Customer Empathy“ unsere Mission ganz gut auf den Punkt.

 

Welche Lösung und welches Denken sind hierfür nötig?

Beziehungen zu Kunden müssen im Zeitalter der digitalen Transformation neu gedacht werden. Es braucht dafür innovative, flexible und kundenzentrierte Lösungen und Denkweisen, sowie ein agiles Vorgehen.

Die Realität ist doch, dass Menschen sich in ihrer „Customer Journey“ zwischen verschiedenen Medien im Unternehmenskontakt wechseln. Und dabei nicht selten den Anspruch nach personalisiertem und schnellen Service haben.

Deshalb müssen wir in den Unternehmen Brücken bauen und organisatorische Silos und monolithische Lösungen aufbrechen.

 

Welche Lösungsansätze bieten Sie Ihren Kunden hinsichtlich Technologie und Consulting?

Wir bieten Services und End-to-End Lösungen für die digitale Transformation von Kundenbeziehungen. Es handelt sich um Cross Mediale Kommunikationsplattformen, die klassische Kanäle wie Sprache und Email mit digitalen Kanälen wie Social Media, Chat, Messenger, BOTs oder WebRTC verbinden.

Gleichzeitig ergänzen wir das Ganze mit Prozess Automation und Künstlicher Intelligenz.
Am Anfang steht dabei immer das Verständnis der Customer Journey, des Service Prozesses. Erst danach folgt die Frage nach der passenden Technologie.

In der richtigen Kombination aus Mensch und Maschine liegt das Geheimnis.

 

RPA ist hier sicher eine passende Technologie. Welche Möglichkeiten bieten die neuen RPA-Technologien und welche Vorteile ergeben sich durch ihren Einsatz?

Zum einen entlastet RPA die Mitarbeiter von wiederkehrenden, einfachen und stupiden Tätigkeiten. Zum andern reduziert es die Informationsüberlastung durch kontextrelevante Verdichtung von Informationen. Und es kann Mitarbeiter unterstützen beim parallelen Bedienen einer Vielzahl von Applikationen bzw. komplexen Prozessabläufen durch Hilfestellung, Next Best Action, Teilautomatisierung und Informationsaufbereitung; Stichwort Usability.

Das alles hilft, Betriebskosten zu minimieren, Zeit und Freiräume zu gewinnen, die mit mehrwertschöpfenden Tätigkeiten verbracht werden kann. Diese positiven Effekte im Bereich der Mitarbeiterzufriedenheit sind nicht zu unterschätzen, Stichwort Employee Engagement.

In Punkto Compliance kann RPA Geschäftsprozesse auditieren und Verfahrenskonformität gewährleisten, indem die strikte Durchsetzung regulatorischer Prozesse und Kontrollen gewährleistet wird. Es ermöglicht die selektive Darstellung von Daten in einer neuen Benutzeroberfläche, die ausschließlich Kontext-relevante und Datenschutz-unkritische Informationen anzeigen läßt.

Hier schließt sich der Vorteil einer 360 Grad Kundensicht an, indem RPA Informationen aus unterschiedlichen, nicht miteinander integrierten Applikationen zusammenführt und damit eine zentrale, übersichtliche Darstellung der relevanten Kundeninformationen ermöglicht.

Weiteren Mehrwert bietet RPA in der Überwindung von Unternehmens-Silos, seien es Abteilungen, Applikationen oder Datenbanken. Es kann auf schnelle und einfache Weise Daten aus verschiedenen Bereichen zusammenführen und austauschen.
Das bringt Agilität und schnelle Erfolge mit kurzfristigem ROI in die IT Systemlandschaft.

Als letzten – aber wichtigsten Punkt möchte ich gerne auf die übergreifenden Potentiale von RPA in Punkto Kundenzufriedenheit hinweisen.
Die Flexibilität in der Prozessgestaltung, die nahezu unbegrenzten Möglichkeiten in der Zusammenführung relevanter Informationen und die Schaffung von Freiräumen für Mitarbeiter im Kundengespräch schaffen Freiräume für mehr Kreativität, Aufmerksamkeit und Empathie und damit zu einer signifikanten Verbesserung im Bereich Customer Experience.

 

Welche Vorteile haben Kunden davon und wie lässt sich daraus ein Neugeschäft generieren?

Die Arbeit wird einfach effizienter und mit weniger Fehlern erledigt. Sobald RPA im Einsatz ist, kann mit gleichem Ressourceneinsatz mehr getan werden, was natürlich Raum für neue Geschäfte entstehen läßt.

Konkretes Neugeschäft kann bei RPA im Kundenkontakt entstehen. Hier können Cross- und Upsell Potentiale genutzt werden, schnellere Vorgangsbearbeitung zu höherem Datendurchsatz führen, geringere Fehlerquoten bei komplexen Buchungsprozessen zu weniger Stornos führen.

 

Wie sollten RPA-Technologien implementiert werden?

Wir empfehlen Unternehmen gerne die folgenden drei Ansätze:

  1. Start small – but now
    Wir versuchen, riesige Projekte mit langen Projektzyklen im ersten Schritt zu vermeiden. Digitale Transformation ist ein „Moving Target“, je länger man wartet, umso eher hat sich das Ziel schon wieder verändert.
    Und es gehört ein agiler Ansatz dazu. Dabei bieten wir unseren Kunden die Option, die Automatisierung nach einem ausführlichen Training selbst umzusetzen, oder diesen Service an uns auszulagern.


  2. Simplify
    Wir empfehlen, mit einem einfachen, simplen Prozess anzufangen. So können erste Erfahrungen schnell gesammelt werden, und Effekte kurzfristig erlebbar gemacht werden. Das hilft ungemein im weiteren Vorgehen, denn nicht selten sind später mehrere Abteilungen involviert, unterschiedliche Interessen betroffen und Konflikte potentiell vorhanden. Erste Erfolge und Beispiele im Unternehmen beugen Mißverständnissen vor und machen das Thema wie schon gesagt „erlebbar“ und nimmt ihm damit auch einen Teil der Bedenken, die ggf. damit verbunden sind.


  3. Deliver value for your employees first
    Die Mitarbeiter können, je nach use case, vielfältige Vorteile durch den Einsatz von RPA erfahren. Andererseits kann damit aber auch eine Reduzierung von Arbeitsplätzen einhergehen. Um die Akzeptanz dieses Themas im Unternehmen von Anfang zu unterstützen hilft ein Fokus auf die Schaffung von echten Vorteilen für die Kollegen.


     

Ein Projekt beginnt in der Regel mit einem Workshop, in dem die Projektziele, KPIs und konkreten Use Cases erarbeitet werden. Anschließend erfolgt ein technischer Pre-Check der betroffenen Prozesse und Applikationen, um darauf basierend eine Aufwandsschätzung und eine Projektplan zu entwerfen.

Danach wird der konkrete Use case umgesetzt, laufend getestet und in der Anwendung mit den betroffenen Mitarbeitern evaluiert, sowie die Erreichung der definierten Zielgrößen gemessen.

Anschließend erfolgt die Einführung des neuen Prozesses für die betroffenen Mitarbeiter und die Überführung in den laufenden Betrieb.

 

Von der grünen Wiese weg neu planen oder Datenbankspezialisten beauftragen, um per API die Datenbanksilos zu überwinden und um darauf neue RPA-Prozesse zu generieren? Was empfehlen Sie?

Die Frage, wie Silos in Unternehmen überwunden werden können, ist nur von Fall zu Fall zu beantworten. Für RPA spricht auf alle Fälle die Schnelligkeit, Flexibilität und Agilität.

Insbesondere im Zusammenhang mit der digitalen Transformation einer Unternehmung, einer Abteilung oder eines Prozesses sind diese Eigenschaften nicht hoch genug einzuschätzen.

In manchen Situationen bietet sich auch eine unserer Lösungen im Bereich BPM, also Business Process Management, an. Standardisierte Schnittstellen zu vorhandenen Applikationen und die Möglichkeit, den Workflow zu modellieren, können auch eine sinnvolle Alternative zu RPA darstellen.

Der entscheidende Faktor für ein erfolgreiches Projekt ist nicht per se die grundsätzliche Herangehensweise, sondern die klare Zieldefinition der zu optimierenden und automatisierenden Prozesse und Applikationen.

Darauf basierend kann die richtige Entscheidung getroffen werden.

 

Welcher digitale Reifegrad ist Voraussetzung für Unternehmen, um diese gewinnbringend anzuwenden?

Für eine gewinnbringende Nutzung von RPA bedarf es keines besonderen digitalen Reifegrads.

Wir empfehlen Unternehmen gerne die folgende drei Ansätze: Start small – but now, Simplify und Deliver value for your employees first.

 

Wo stehen, Ihrer Expertise nach, RPA-Technologien in den nächsten zwei bis drei Jahren

Die Entwicklung von RPA kommend von sog. „Unattended RPA“, also der Voll-Automatisierung von Prozessen, hin zu „Attended RPA“, also einer die Mitarbeiter begleitenden, unterstützenden Teil-Automatisierung geht weiter zu der Verbindung von RPA mit Artificial Intelligence (AI) und Cognitive Computing.

 

Herr Wild, vielen Dank für das Gespräch.

 

www.sogedes.com

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons

 

Advanced Analytics für den CFO

Gastbeitrag von Clemens Frank, Geschäftsführer der verovis GmbH

Die Nutzung von Advanced Analytics hat in den vergangenen Jahren beeindruckende Fortschritte gemacht. Unter­nehmen haben insbesondere in den Disziplinen Customer Analytics und Production Analytics davon profi­tiert. Gerade die gesell­schaftliche Debatte über die Digitali­sierung hat dazu geführt, dass nun auch der Finanzbereich seine Prozesse nach Möglichkeiten zur Nutzung von Advanced Analytics durchleuchtet.

Der Finanzbereich hat es mit viel Arbeit geschafft, Daten­strukturen zu bündeln und für ein strukturiertes, auf Vergangenheitswerten basiertes Berichtswesen zur Verfügung zu stellen. In diesem Zuge sind die Daten­banken gewachsen und haben sich teilweise zu großen Data Warehouses entwickelt. Damit wurden Grundmau­ern geschaffen, um manuelle Arbeits­schrit­te in der Erstellung von Berichten zu automatisieren. Aller­dings ist in fast allen Fällen das Thema Advanced Ana­lytics bisher nicht be­trachtet worden.

Unter Advanced Analytics verstehen wir die Nutzung von komplexen statistischen Algorith­men und Machine-Learning-Verfahren, um aus bestehenden Daten Ursache-Wirkungs-Beziehungen zu erkennen und Maßnahmen abzuleiten. Auf den unternehmerischen Kontext angewandt bedeutet dies die Nutzung von un­ternehmensinternen und -externen Daten, um mögliche Geschäfts­chan­cen oder -risiken abzuleiten.

Im Finanzbereich haben sich folgende fünf Entwicklungsfelder hervorgetan: Aufstellen von Forecasts (bei­spielswei­se für Umsatz und Cash); Sicherstellung der Datenqualität in der Buchhaltung und Datenmeldung beziehungsweise Fraud Detection; Optimierung in der Bewertung (beispielsweise Steuern und Bestände); Klassifikation von Infor­mationen (beispielsweise Warengrup­pen im Einkaufsvolumen); Anreicherung von Robotic Process Automation (beispielsweise Stammdatenanreiche­rung im Rechnungseingang).

 

Unternehmen müssten laut Clemens Frank vielmehr in Advanced Analytics investieren.

 

Viele Unternehmen haben in ihren ERP-Systemen Daten gesammelt, die lediglich aggregiert für Steuerungs­kennzahlen genutzt werden. Diese Da­ten bieten, aus Sicht von Advanced Analytics, wesentlich mehr Potenzial. Erfahrungen aus der Entwicklung des Cash Forecasts auf Basis von Daten aus der Debitorenbuchhaltung und dem Ver­trieb unter Nutzung von Advanced-Analytics-Algorithmen haben eine 90-prozentige Genauigkeit des Tages­fore­casts in der Cash-in-Position ergeben. Neben der Einsparung des manuellen Aufwands eröffnet dies zusätzlich Möglichkeiten in der Optimierung des Cash-Managements.

Um den Entscheidern im Finanzbereich das Potenzial von Advanced Analytics vor Augen zu führen, kann eine prototypische Umsetzung sehr gute Überzeugungsarbeit leisten. Im Vergleich zum Auf­bau des strukturierten Berichtswesens auf Basis von komplexen Datenbanken bzw. Data Ware­houses ermöglichen Advanced-Ana­lytics-Methoden sehr schnell Erfolge. So können unterneh­mens­in­terne Rohdaten aus den vor­handenen ERP-Systemen sehr einfach genutzt und zur Entwicklun­g von ersten Erkenntnissen inner­halb weniger Wochen in ein Modell überführt werden.

www.verovis.de