EIM: Informationen werden zum Geschäftsvorteil

Mit Blick auf die Zukunft der Information ist es nicht leicht, mit der Technologieentwicklung mitzuhalten. Dabei ist der Wandel vom „Enterprise
Resource Planning“ (ERP) hin zu „Enterprise Information Management“ (EIM) als Informationssystem der Zukunft bereits in vollem Gange. Die Verarbeitung von strukturierten und unstrukturierten Daten stellt Unternehmen vor neue Herausforderungen, bietet jedoch große Chancen.
Ein Gespräch mit Roger Illing, Senior Vice President Enterprise Sales Europe, und Lars Drexler, Vice President Solution Consulting EMEA beim Digitalisierungsexperten OpenText.

Die Digitalisierung bringt Unternehmen klare Vorteile. Warum haben trotzdem relativ viele Menschen Angst davor?
Roger Illing: Das ist in der Tat ein sehr wichtiger Punkt. Natürlich werden manche Prozesse, die zuvor von Menschen erledigt worden sind, nun von der IT abgearbeitet. Das gilt nicht nur für die Produktion mit ihren Robotern, sondern auch für informationsverarbeitende Prozesse. Schon heute haben von den 70 000 Mitarbeitern einer Bank womöglich nur noch 10 000 regelmäßigen Kundenkontakt. Zukünftig wer­den noch mehr dieser Prozesse automatisiert ablaufen. Diese Entwicklung ist aber nicht nur negativ, sondern bietet auch Chancen wie mehr Flexibilität, Kreativität und Freiraum für die Mitarbeiter. Das sind im Übrigen alles Punkte, die der nächsten Generation von Arbeitnehmern, den Millennials, sehr wichtig sind.

Die Millennials sind mit der Digitalisierung aufgewachsen. Inwiefern spielen diese privaten Erfahrungen eine Rolle?
Lars Drexler: In vielen Bereichen des Alltags machen User leider immer noch negative Erfahrungen mit der Digitalisierung. Das liegt unter anderem auch daran, dass viele Angebote im Netz sehr binär daherkommen: Es gibt ein Produkt und einen Preis. Möglicherweise ist das Angebot für den User sogar komplett irrelevant. Diese Art der Digitalisierung bringt wenig Mehrwert. Interessant für den potenziellen Kunden wird es erst dann, wenn maßgeschneiderte Informationen durch unstrukturierte Informationen angereichert werden. Ein gutes Beispiel dafür sind die Benutzerrezensionen im Online-Kaufhaus. Jede einzelne Bewertung ist sehr subjektiv. In Summe vermitteln sie aber ein gutes Bild über das, was den Käufer erwartet. Auch im beruflichen Umfeld sollten Mitarbeiter jederzeit für sie relevante Informationen mit anderen Daten in Verbindung bringen können.

  • Digitale Transformation umfasst nicht nur die Optimierung einzelner Geschäfts­prozesse sondern auch eine Neuausrichtung des Unternehmens bis hin zu neuen, digitalen Geschäftsmodellen.
  • Ein ganzheitliches Informationsmanagement bricht Informationssilos im Unternehmen auf und sorgt für die umfassende Verwaltung und Analyse des Informationsflusses.
  • Mit Enterprise-Information-Management-(EIM)-Systemen lassen sich sowohl strukturierte als auch unstrukturierte Daten und Abläufe im Unternehmen auffinden, verwalten und gewinnbringend einsetzen.

Was müssen Unternehmen tun, um dieses Ziel zu erreichen?
Roger Illing: Die Zukunft gehört den EIM-Plattformen. EIM steht für „Enterprise Information Management“. Darunter verstehen wir die Möglichkeit, unstrukturierte Daten in den Griff zu bekommen. Das können Dokumente und Präsentationen sein, die in unterschied­lichen Ordnern lagern, aber auch Videos, Bilder, Folien und viele andere Medien. In diesen Materialien schlummern wertvolle Informationen, die mit klassischen Methoden nicht genutzt werden können. Die Menge, Vielfalt und Geschwindigkeit dieser Informationen machen sie immer schwerer verständlich und verwendbar, sogar dann, wenn sie unverzichtbar für den Unternehmensalltag werden. Mit Blick auf diese Vorteile werden EIM-Plattformen sich durchsetzen und einen ähnlichen Wandel einleiten wie ERP-Systeme in den 90-er Jahren.

Welche Rolle spielen Prozesse dabei?
Lars Drexler: Klar definierte Prozesse sind die Basis, um überhaupt als digitales Unternehmen auftreten zu können. Unternehmen sollten nicht den Fehler der frühen Internetjahre wiederholen, als viele Webserver aufgesetzt wurden, ohne dass sich jemand Gedanken über die grundlegenden Prozesse gemacht hat. Dabei kommt es gerade darauf an, wenn das volle Potenzial von „Electronic Data Exchange“ (EDE) in Zukunft ausgeschöpft werden soll. Dabei ersetzt EDE zunächst Papierdokumente durch elektronische Versionen. Anschließend werden die Daten in einem Dokument in einem Standardformat übermittelt, sodass Sender und Empfänger in der Lage sind, das Dokument exakt zu lesen. Das ist jedoch erst der Anfang.

Welche Entwicklungen stehen in diesem Bereich an?
Roger Illing: Ein zentrales Zukunftsthema ist, dass Produkte in Zukunft mit der Bestellung definiert werden. Noch handelt es sich dabei um große Visionen, die allerdings besonders in Verbindung mit Industrie 4.0 sehr vielversprechend sind. Noch sind viele Unternehmen auf dieses Thema nicht vorbereitet. Das Interesse daran wächst jedoch. Damit EDI in dieser Form funktioniert, kommt es vor allem auf eine integrierte Plattform an. Mit einer einfachen Anbindung an das ERP-System ist es nämlich leider nicht getan. Die Entscheidung zur Implementierung sollte vor allem auf Unternehmensebene und nicht auf technischer Ebene getroffen werden, wenn alle Vorteile einer EDI-Investition genutzt werden sollen.

Beitrag wurde veröffentlicht im Dez. 2016 im Handbuch Digitalisierung

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/


Informationen zu Lars Drexler

Informationen zu Roger Illing

Digitalisierungs-Enabler im Mittelstand

von Marco Becker

Die Studie „Digitalisierungs-Enabler der Fachbereiche im Mittelstand“ wurde von der techconsult GmbH im Auftrag von Optimal Systems konzipiert und durchgeführt. Im Mai 2016 wurden 215 Unternehmen der Größenklasse ab 50 Mitarbeitern über alle Branchen zum Thema Digitalisierung befragt. Ansprechpartner waren in erster Linie leitende Angestellte, IT-Verantwortliche und Geschäftsführer, die Angaben zur Digitalisierung in den verschiedenen Fachbereichen im eigenen Unternehmen machen konnten.

Richtig angewandte Digitalisierung eröffnet nicht nur Möglichkeiten einer effizienteren Aufgabenerledigung, sondern kann auch die Wettbewerbsfähigkeit durch neue Nutzungsszenarien und Geschäftsfelder stärken. Auch Unternehmen, die diese neuen Möglichkeiten nicht wahrnehmen wollen, können sich der Digitalisierung nicht entziehen, denn genügend Abnehmer, Zulieferer und andere Geschäftspartner setzen auf die Digitalisierung und wollen ihre digitalisierten Prozesse an Partner anbinden können. Digitalisierung wird zur Pflicht, wenn man im Wettbewerb mit anderen Anbietern nicht das Nachsehen haben will.

Größenklassen der teilnehmenden Unternehmen

Wie so oft in unternehmensweiten Veränderungsprozessen setzt die effiziente Nutzung von neuen Technologien allerdings eine ganzheitliche Umsetzung voraus, denn die Verarbeitung in Insellösungen verhindert Synergien. Ein ganzheitlicher Lösungsansatz ist ein „Enterprise Content Management“ (ECM), das sämtliche Datenbestände eines Unternehmens vereint und damit größtmögliche Verbundeffekte schaffen kann. Ein maßgeblicher Faktor, der die Einführung einer neuen Lösung erfahrungsgemäß erschweren kann, sind die Mitarbeiter, die die Lösung am Ende nutzen sollen. Denn sowohl die Technikaffinität und die Nutzungsgewohnheiten als auch die Kreativität in der Nutzung neuer Informationstechnologie-Lösungen können unter Anwendern stark variieren.

Im Rahmen der Studie „Digitalisierungs-Enabler der Fachbereiche im Mittelstand“ wird – unterteilt in die Sichtweisen der Fachbereiche Finanzen und Controlling, Einkauf inkl. Recht und Compliance, Business-Development/Produktmanagement, Personal und Qualitätsmanagement – untersucht:

  • ob mittelständischen Unternehmen die Tragweite einer Digitalisierungsstrategie bewusst ist,
  • ob die Daten in mittelständischen Unternehmen schon digitalisiert werden und welche Technologien für das Management digitaler Daten genutzt werden,
  • wer die Digitalisierung im Unternehmen treibt, wer nicht und warum,
  • in welchen Fachbereichen und Prozessen die Digitalisierung bereits fortgeschritten ist und damit als besonders sinnvoll erachtet wird
  • und ob ein ECM die Erfüllung dieser Prozesse unterstützt.

Stand der Digitalisierung im Mittelstand

Die Mehrheit der befragten Unternehmen hat bisher nur wenige Prozesse digitalisiert. Nur ein knappes Drittel der Befragten sagt aus, dass es seine Prozesse weitestgehend automatisiert hat.

In vielen Unternehmen nimmt die Wichtigkeit der Digitalisierung zu. Rund zwei Drittel aller Befragten schätzen sie als zunehmend oder absolut wichtig für das eigene Unternehmen ein.
Nur noch ein sehr kleiner Anteil sieht keine Relevanz in der Digitalisierung für das eigene Unternehmen. Die Einschätzung wächst mit der Unternehmensgröße deutlich an: Liegt der Anteil für „zunehmend und absolut wichtig“ bei den kleinen Mittelständlern zwischen 50 und 249 Mitarbeitern noch bei 56 Prozent, steigt er bis 999 Mitarbeiter auf 69 Prozent und erreicht unter den großen Mittelständlern einen Anteil von 80 Prozent. Bei dieser Unternehmensgröße behauptet auch kein Befragter mehr, dass Digitalisierung keine Rolle spiele. Nach Fachbereichen sieht vor allem das Business-Development hohes Potenzial, während der Einkauf und die Personalabteilung noch relativ skeptisch sind. Unterschieden nach den Fachabteilungen, stehen die Personalabteilungen noch eher am Anfang der Digitalisierung. Hier liegt der Anteil mit einem sehr geringen Digitalisierungsgrad noch bei einem Viertel der befragten Personalabteilungen. Die anderen Fachbereiche sind in der Umsetzung ihrer Digitalisierung auf einem höheren Niveau. Auch hier lohnt der Blick auf die Unternehmensgröße: Während die kleineren Unternehmen zu 38 Prozent einen hohen Digitalisierungsgrad vorweisen, liegt der Anteil unter den großen Unternehmen bei 58 Prozent.

Wenn es um die effiziente Nutzung und sinnvolle Verarbeitung von Daten geht, stehen Unternehmen viele Wege offen. Die einsetzbaren Lösungen sind aber meist auf eine Aufgabe spezialisiert, auf eine bestimmte Dateiart (z. B. Schriftverkehr, Office-Dokumente, Web Content) oder einen bestimmten Prozess (z. B. Archivierung, Organisation, Kommunikation). Die jeweiligen Dateibestände werden daher auch getrennt verwaltet, liegen möglicherweise redundant vor und lassen sich nicht gemeinsam verarbeiten. ECM als unternehmensweite Informationsmanagementplattform kommt erst bei einem Viertel der befragten Unternehmen zum Einsatz.

Hotspots der Digitalisierung: Wer Digitalisierung im Unternehmen vorantreibt und wer nicht

Erfahrungsgemäß haben drei Akteure im Unternehmen potenziell Einfluss auf die Einführung neuer IT-Lösungen: die IT-Abteilung, die Geschäftsführung und die Fachbereiche selbst. Im Schnitt ist aber keine von diesen „der“ Treiber der Digitalisierung. Die Rolle des Treibers variiert je Unternehmen oder wird gemeinschaftlich wahrgenommen.

Einen Verantwortlichen für die Digitalisierung zu benennen, ist eher schwer, denn sie kann von vielen Seiten forciert werden: Sie betrifft sowohl die technische IT im Hintergrund als auch die Arbeitsabläufe beinahe jedes Mitarbeiters. Durch die neuen Möglichkeiten der Informationserfassung und -verarbeitung ist auch die Zukunft des Unternehmens und damit die Geschäftsführung betroffen. Die Befragten wurden aus diesem Grund nach ihrer Einschätzung gefragt, wer das Thema Digitalisierung wie stark vorantreibt.
Betrachtet man die Einschätzung der Fachbereiche, dann zeigt sich, dass die IT-Abteilung noch öfter als starker Treiber gesehen wird. Das ist nicht überraschend und relativ häufig der Fall, wenn es um IT-Unterstützung im Arbeitsalltag geht, weil die IT-Abteilungen mögliche Nutzungs-Szenarios und Vorteile schon früh antizipieren können. Allerdings sind die Abstände in der Wahrnehmung bei weitem nicht so groß, wie sie es bei den hochtechnischen Themen sind. Dort dominieren die IT-Abteilungen üblicherweise deutlich.

Aus den vorherigen beiden Abbildungen wird deutlich, dass die Fachbereiche selbst in der Regel die Digitalisierung weniger vorantreiben. Sie sehen anscheinend auch weniger oft konkrete Nutzungsszenarios in der Digitalisierung als Geschäftsführer und IT-Abteilungen aus ihrer externen Betrachtungsperspektive. Diese helfen daher kräftiger nach und werden von den Fachbereichen auch als stärkerer Treiber wahrgenommen.

Digitalisierung verschiedener Prozesse im Detail

Im Rahmen der Studie wurden knapp 50 typische Prozesse der Fachbereiche evaluiert. Zu diesem Zweck wurden Umsetzungszufriedenheit, Digitalisierungsgrad und ECM-Einsatz der Prozesse nebeneinandergestellt und verglichen. Generell werden die meisten Prozesse über alle Fachbereiche unter Zuhilfenahme von Digitalisierung besser umgesetzt als ohne Digitalisierung und auch der ECM-Einsatz zahlt sich in den meisten Fällen aus.

In jedem Fachbereich gibt es fachspezifische Prozesse, die Potentiale haben, durch IT-Lösungen unterstützt zu werden. Die detaillierte Analyse dieser Prozesse in den verschiedenen Fachabteilungen zeigt, dass einige Prozesse sinnvoller und effizienter unterstützt werden können als andere.

Zum Beispiel können extrem umfangreiche Prozesse mit vielen Einzelschritten durch Managementlösungen deutlich übersichtlicher gestaltet werden oder eine große Anzahl von Dokumenten kann effizienter in Datenbanken verwaltet werden als in Aktenschränken. Dazu zählen zum Beispiel der standardisierte Datenaustausch, das Dokumentenmanagement oder die revisionssichere Langzeitarchivierung. Kreative oder sehr individuelle Aufgaben hingegen können oftmals nicht standardisiert werden und sind schwerer durch Managementlösungen abzubilden. Dazu zählt Beispielsweise die Erstellung von Geschäftsmodellen bzw. Business Plänen oder das Changemanagement.
Die detaillierten Ergebnisse der Prozessanalyse können dem vollständigen Studienbericht entnommen werden, den der Sponsor auf seiner Homepage kostenlos zur Verfügung stellt.

Zusammenfassung und Fazit

Die Fachbereiche sehen sich selbst in Relation zur Geschäftsführung oder der IT-Branche weniger oft als starken Treiber für mehr Digitalisierung.

Digitalisierung … steht bei vielen Unternehmen noch am Anfang.
Die Digitalisierung wird in den Augen vieler Unternehmensvertreter immer wichtiger und ist bei vielen bereits fester Bestandteil des Geschäftsalltags. Die Umsetzung ist allerdings oft entweder gering oder genügt den eigenen Anforderungen noch nicht. Viele befinden sich noch in der Test- bzw. Einführungsphase und tasten sich mit ausgewählten Prozessen voran. Einige Dokumente werden also noch analog verarbeitet (z. B. Papierdurchschläge), andere digital (z. B. eingescannte Dokumente; einzelne Office-Dateien) und andere eventuell bereits durch IT-Lösungen gemanagt (z. B. Datenbank-Lösung). Hinzu kommt unter Umständen der Einsatz diverser Lösungen zur Datenverarbeitung, die aber unabhängig voneinander operieren und viele Vorteile der Digitalisierung noch nicht nutzbar machen.

Digitalisierung … wird und sollte von allen getrieben werden
IT-Abteilung, Geschäftsführung und die Fachbereiche selbst können als Treiber im Unternehmen und im Fachbereich fungieren. Allerdings übernimmt keine von ihnen die Funktion des alleinigen Enablers und Evangelisten für die Digitalisierung. Eine sehr gute Nachricht ist, dass die IT-Abteilung nicht vorgeschoben wird, wenn es um die Digitalisierung geht. Zwar wird diese noch öfter als Treiber wahrgenommen als die Geschäftsführung und die Fachbereiche selbst, doch stehen diese den IT-Abteilungen kaum noch nach und tragen in vielen Unternehmen zur Durchsetzung der Digitalisierung bei. Ein einseitiges Treiben wäre genau genommen sogar kontraproduktiv und im besten Szenario sind alle drei Akteure gleichermaßen daran interessiert, die eigene Entwicklung voranzutreiben.

Digitalisierung … wird je nach Fachabteilung und Prozess unterschiedlich bewertet und genutzt
Sowohl die Fachbereiche als auch die Prozesse in den Fachbereichen unterscheiden sich zum Teil deutlich in ihrer Digitalisierungsfähigkeit, ihrer Unterstützung durch IT-Lösungen und ihren Möglichkeiten, effizient durch ein ECM abgebildet zu werden. Einige Fachbereiche haben den Nutzen der Digitalität bereits erkannt, setzen sie um bzw. ein und treiben sie weiter voran, zum Beispiel das Qualitätsmanagement oder das Personalmanagement. Andere Fachbereiche, wie das Business-Development, sehen wiederum überdurchschnittlich häufig noch wenig Nutzen für den eigenen Fachbereich und treiben daher auch weniger oft. Im Gegensatz dazu sehen sie im Hinblick auf das gesamte Unternehmen sehr wohl die Digitalisierung als absolut wichtig an. Hier fehlt noch das Gespür für die Ganzheitlichkeit der Digitalisierung eines Unternehmens und wie sie sämtliche Abteilungen und Fachbereiche durchziehen und vernetzen soll. Des Weiteren gibt es eine dritte Gruppe, wie den Einkauf, die die Zukunft der Digitalisierung im eigenen Unternehmen noch relativ verhalten bewertet, in der Analyse einzelner konkreter Prozesse aber am stärksten von dieser profitiert.

Enterprise Content Management … unterstützt relevante Prozesse in allen Fachbereichen
Der Blick von oben zeigt zum einen, dass ein ECM gerade in den relevanten Prozessen zur deutlich besseren Umsetzung beiträgt und zum anderen, dass in jedem Fachbereich erfolgreich mehrere Prozesse durch ein ECM unterstützt werden können. Ein ganzheitlich umgesetztes ECM ist daher ein effizientes Instrument zur Nutzbarmachung aller digitalen Informationen im Unternehmen und kann aus Sicht der Fachbereiche viele Prozesse besser erfüllen, als es vielleicht bestehende spezielle oder eingelebte manuelle Lösungsansätze tun würden.

Enterprise Content Management … für eine lückenlose Prozessdigitalisierung
Mit zunehmender Digitalisierung werden Unternehmen noch weitere Nutzenpotentiale erkennen. Einige Prozesse, für die ein ECM bisher noch nicht relevant erschien, können dann sehr wohl von diesem unterstützt werden. Gestützt wird dieser Schluss durch eine Auffälligkeit, die sich über alle Fachbereiche erstreckt: Unternehmen bzw. Fachbereiche, die einen mittleren Digitalisierungsgrad ihrer Prozesse vorweisen, setzen diese wesentlich schlechter um, als solche, die gar nicht digitalisiert haben. Die teilweise Digitalisierung hat nämlich den entscheidenden Nachteil, dass nicht alle Prozesse verbunden werden und dadurch Lücken zwischen analoger und digitaler Verarbeitung entstehen. Diese Schnittstellen zu überbrücken, kostet mehr Aufwand und beherbergt mehr Fehlerquellen (fehlerhafte Übertragung, Manipulation, Verlust, Diebstahl) als gar keine Prozesse zu digitalisieren.

Digitalisierung und ECM … ganz(heitlich) oder gar nicht
Die Devise bei der Digitalisierung sollte daher auch lauten „ganz oder gar nicht“ und das Datenmanagement sollte durch ein integratives ECM gestützt werden. Denn auch die schrittweise Einführung einzelner Lösungen wird sich früher oder später verkomplizieren, wenn es darum geht, sie zu einem zentralen System zu verbinden. Der komplette Umzug auf ein neues ECM wird dann umständlicher, als es von Anfang an wachsen zu lassen.

 

 

Veröffentlicht im Dez. 2016 im Handbuch Digitalisierung

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/

Digitalisierung heißt Kulturwandel

von Jürg Stuker

Man nehme eine Portion Cloud-Computing, dazu Big Data, vielleicht noch eine Prise Indus­trie 4.0 – und schon funktioniert der digitale Wandel. Nach diesem Rezept verfahren viele Unter­­nehmen. Doch wer Digitalisierung auf Tech­nologien reduziert, liegt falsch. Wichtig ist ein An­satz, der holistisch die gesamte Unternehmung ins Visier nimmt. Dazu zählen die Anpassung der Unternehmenskultur und die Entwicklung neuer Geschäftsmodelle, aber auch und gerade die Anpassung der Prozesse und damit der Organisation.

Der digitale Wandel zählt laut einer Studie des Marktforschungsunternehmens Bitkom Re­search für 72 Prozent der deutschen Unternehmen zu den größten Herausforderungen. Zugleich stufen 88 Prozent die Digitalisierung als Chance ein. Wie eine erfolgreiche Digitalisierungsstrategie in der Praxis aussehen kann, zeigen Beispiele aus unterschiedlichen Branchen. Sie belegen, dass es nicht nur darauf ankommt, neue Technologien einzusetzen. Auch „weiche“ Faktoren wie die Unternehmenskultur spielen eine wichtige Rolle.

Chance statt Bedrohung: Deutsche Unternehmen betrachten den digitalen Wandel als positive Entwicklung. Quelle: bitkom research

Dem Innovationsdruck standhalten

Ein zentrales Element der digitalen Transformation ist die Herausforderung, schneller, besser und vor allem innovativer zu sein als Mitbewerber. Das erfordert gut ausgebildete und engagierte Mitarbeiter, vor allem im Bereich Informations- und Kommunikationstechnik (ICT). Doch solche Fachleute sind Mangelware. So stufen laut der Studie von Bitkom Research 73 Prozent der deutschen Unternehmen die Suche nach geeigneten Fachkräften als Hürde bei der Umsetzung einer Digitalisierungsstrategie ein. Mit vergleichbaren Herausforderungen sieht sich die Swisscom konfrontiert, der führende Telekommunikationsanbieter der Schweiz. Um sich als attraktiver Arbeitgeber im Bereich ICT zu positionieren, setzt das Unternehmen auf ungewöhnliche Maßnahmen im Bereich „Employer-Branding“. Eine davon ist das „Project 365d“. Drei talentierte Absolventen von Studiengängen in der ICT-Sparte leben ein Jahr lang gemeinsam in einer Wohngemeinschaft. An einem Tag entwickeln sie dabei Ideen zum Wohnen der Zukunft: Sie vernetzen beispielsweise Möbel oder arbeiten an sprechenden Kühlschränken. An den anderen vier Tagen absolvieren sie ein Praktikum in der Innovationsabteilung von Swisscom. Über ihre Erfahrungen berichten die WG-Bewohner im ICT-Blog des Unternehmens. Außerdem laden sie Fachleute in ihre „Wohnung der Zukunft“ ein und diskutieren mit diesen über „smarte“ Einrichtungsgegenstände. Das Project 365d hat sich für Swisscom voll bezahlt gemacht. So rückte das Unternehmen von Platz 10 auf Rang 3 im Universum-Ranking der beliebtesten Arbeitgeber in der Schweiz. Außerdem konnten die Kosten für das Recruiting neuer Mitarbeiter halbiert werden. Die Investitionen in das Projekt haben sich somit mehrfach amortisiert.

Neue Geschäftsmodelle entwickeln

Ein Effekt der Digitalisierung ist, dass beste­hende Geschäftsmodelle in Frage gestellt wer­den. Laut der Studie von Bitkom Research haben es bereits 54 Prozent der Firmen in Deutschland mit Mitbewerbern aus dem Digitalsektor zu tun. Das heißt, Geschäftsmodelle müssen angepasst werden. Wie sich ein solcher Strategiewechsel durchführen lässt, zeigt das Medizintechnik-Unternehmen Medela AG aus Baar, südlich von Zürich. Medela hat sich auf medizinische Vakuum-Technologien und Pro­dukte für stillende Mütter spezialisiert. Bis 2014 nutzte das Unter­nehmen ausschließlich Fachhändler als Vertriebskanal. Mittlerweile aber hat Medela über digitale Angebote einen direkten Zugang zu Endkunden eingerichtet, zum Beispiel mit der MyMedela-App. Sie spricht Mütter an, die Infor­mationen zum Thema Stillen suchen. Außerdem ermöglicht die Anwendung, direkt mit Kunden zu interagieren. Ergänzend dazu hat das Unternehmen das Vertriebsmodell „digitalisiert“: Die Produkte für Konsumenten und für Fachkunden sind über Online-Shops in Europa, Nordamerika und Australien verfügbar. Medela hat somit sein Geschäftsmodell radikal geändert und bietet seine Produkte direkt an. Die Veränderung zeigt sich auch in der Vermietung von Geräten. Somit ist der E-Shop gleichzeitig eine Mietplattform. Parallel dazu besteht weiterhin der klassische indirekte Vertriebskanal.

Technologien nutzen

Die Versicherungsbranche zählt zu den Sparten, die von der Digitalisierung besonders betroffen sind. Das hat SWICA erkannt, ein Spezialist für Unfall- und Krankenversicherungen. Das schweizerische Unternehmen wollte seine Website aufwerten, um die Beziehung zu Kunden zu verbessern und die Zahl der Online-Abschlüsse von Verträgen zu erhöhen.
Umsetzen ließ sich dies nur durch die Implementierung eines neuen Content-Management-Systems (CMS) und eine grundlegende Modernisierung der Website. Ein neues Design macht nun die Website noch ansprechender. Außerdem wurden Elemente integriert, die dem Besucher einen konkreten Nutzen bringen. Dazu zählen ein Prämienrechner und eine Kontaktbox, über die sich Anfragen an SWICA stellen lassen. Solche Elemente sind wichtig, um die Kundenzufriedenheit zu erhöhen und die Hürden zu überwinden, die dem (Online-)Dialog mit Kunden im Wege stehen.

Kernaussagen

Digitale Transformation ist ein kontinuierlicher Prozess, der holistisch die gesamte Unternehmung ins Visier nimmt. Eine offene Unternehmenskultur mit Raum für Ausprobieren und Fehler ist genauso wichtig wie technologischer Fortschritt und fachliches Know-how.
Die Arbeit in Teams sowie in Abteilungs- und Unternehmens-übergreifenden Projektgruppen gewinnt an Bedeutung. Eine solche Struktur basiert auf Technologien wie Chats, Wikis und Videokonferenzen.
Digitale Transformation muss vom Manage­ment gesteuert werden. Das sorgt da­für, dass alle Mitarbeiter fachlich wie emo­tional mitgenommen werden, denn sie müssen den Prozess in der täglichen Arbeit leben: Indem sie den Mut haben zu hinterfragen, ihr Wissen teilen und sich über Abteilungen hinweg konstruktiv austauschen.

Prozesse an die Digitalisierung anpassen

Die digitale Transformation ist kein Projekt, sondern ein Prozess, der mit Anpassungen in vielen Unternehmensbereichen verbunden ist. Dass solche Modifikationen Vorteile bringen, zeigt das Beispiel von ABB, einem führenden Unternehmen für Energie- und Automatisierungstechnik. ABB stand vor dem Problem, dass für den Vertrieb seiner Produkte Print-Materialien und PDF-Dokumente genutzt wurden. Doch diese Materialien veralteten schnell, waren teuer und ließen sich nur mit hohem Aufwand aktualisieren.
Die Lösung heißt „Digital Sales Assistant“. Die Applikation stellt über die App „ABB Connect“ eine Vielzahl der Produkte auf Mobilgeräten dar. Außerdem verknüpft sie Informationen, die in 17 000 PDF-Dateien vorliegen, mit den entsprechenden Produkten. Die Vertriebsmitarbeiter von ABB haben nun jederzeit die aktuellen Informationen zur Hand, wenn sie mit Kunden Gespräche führen, inklusive Videos und PDF-Dokumenten.
Hinzu kommt ein weiterer Vorteil: Mit ABB Connect lassen sich personalisierte Kundenportfolios erstellen. Spezielle Anforderungen von Kunden gleicht die Anwendung automatisch mit den passenden Produkten von ABB ab und stellt diese als Slideshow bereit. Die Vertriebsfachleute müssen sich daher nicht mit dem Zusammensuchen von Informationen beschäftigen, sondern haben mehr Zeit für den Kunden.

Die Unternehmenskultur muss passen

Eine Prozessoptimierung oder der Einsatz neuer Technologien helfen jedoch für sich alleine genommen nicht, den digitalen Wandel zu meistern. Dieser Prozess muss durch die Mitarbeiter und die Unternehmenskultur mitgetragen werden. Das bestätigt auch eine Studie der Commerzbank. So wollen Mitarbeiter selbstständiger und flexibler arbeiten und zudem mehr Verantwortung übernehmen.
Generell erfordert die digitale Transformation eine transparente und offene Kultur. Hinzu kommt die Bereitschaft, bestehende Strukturen und Abläufe zu hinterfragen und anzupassen. Das gilt beispielsweise für die Arbeitsweise und -prozesse: Die Arbeit in Teams sowie in abteilungs- und unternehmensübergreifenden Projektgruppen gewinnt an Bedeutung. Eine solche Struktur basiert auf Technologien wie Chats, Wikis und Videokonferenzen.
Ergänzend dazu ist eine neue Form des Wissensmanagements erforderlich, etwa in Form interner Wissensnetzwerke. Sie animieren Mitarbeiter dazu, Informationen über Aufgabenbereiche und Best Practices mit Kollegen zu teilen. Außerdem verhindern solche Netzwerke, dass sich Informations-Silos entwickeln. Letztlich erhöht das die Transparenz im Unternehmen und führt dazu, dass sich Menschen, unabhängig von der Organisationsstruktur, für andere Menschen interessieren.
Ein wichtiger Bestandteil einer solchen Unternehmenskultur ist zudem der Umgang mit Fehlern. Nur wer die richtigen Schlüsse aus gescheiterten Projekten und Geschäftsmodellen zieht, entwickelt sich weiter. Sowohl Mitarbeiter als auch Führungskräfte müssen daher bereit sein, neue Dinge auszuprobieren und Fehler in Kauf zu nehmen. Ein hilfreiches Werkzeug in diesem Kontext ist das Prototyping, also das Aufsetzen von Versuchsmodellen auf dem Weg zum Ziel.

Die digitale Transformation erfordert eine andere Art von Führungskultur, die auf Koordination und
Kooperation setzt statt auf Kontrolle. (Quelle: Commerzbank, Studie UnternehmerPerspektiven im Internet, 2015 TNS Infratest)

Fazit: Das Gesamtpaket muss stimmen

Der digitale Wandel stellt kein unüberwindbares Hindernis dar. Im Gegenteil: Unternehmen können diesen Transformationsprozess in einen wirtschaftlichen Vorteil ummünzen. Die Voraussetzung ist, dass sie sich nicht auf einzelne Aspekte konzentrieren. Vielmehr muss das Gesamtpaket stimmen, von der Entwicklung neuer Geschäftsmodelle bis zur Prozessoptimierung. Nicht übersehen werden dürfen dabei Faktoren wie ein Innovations- und Wissensmanagement und die Bereitschaft, über den Tellerrand hinauszuschauen. Nur Unternehmen, die eine solche ganzheitliche Sichtweise entwickeln, werden vom digitalen Wandel profitieren.

Informationen zu Jürg Stuker

Zu namics

 

 

Veröffentlicht Dez. 2016 im Handbuch Digitalisierung

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/

Der Chief Digital Officer

Potenziale der Digitalisierung fürs eigene Unternehmen ausschöpfen.

von Rolf Dreier

Fast alle Branchen sind von der digitalen Transformation betroffen. Unternehmen, die ihren Finger am Puls der Zeit haben und wettbewerbsfähig bleiben wollen, müssen zeitnah handeln – eine Wahl gibt es nicht. Die schwierige Aufgabe, eine digitale DNA im Unternehmen zu verankern, übernimmt ab jetzt der Chief Digital Officer.

Große Konzerne wie TUI Deutschland, die Bayer AG und die Deutsche Bank haben in ihrer Chefetage bereits Platz für den CDO geschaffen und lassen sich von ihm den Weg in die digitale Zukunft ebnen. Auch in vielen mittelständischen und kleineren Unternehmen ist die Digitalisierung zur Wettbewerbssicherung unerlässlich geworden. Leider trifft man vor allem in kleinen Unternehmen selten einen CDO oder eine vergleichbare Führungskraft an: ein fataler Fehler.

Warum Chief Information Officer und Chief Marketing Officer die Digitalisierung nicht alleine stemmen können

Jedes Unternehmen sollte im 21. Jahrhundert einen CDO oder eine vergleichbare Führungskraft haben, die ebenso wie der CIO und CMO im oberen Management des Unternehmens angesiedelt ist. Die Notwendigkeit, für den CDO eine eigene Stelle zu schaffen, wird aber noch nicht von allen Unternehmen gesehen. Der Glaube, die vorhandenen Führungskräfte könnten die Aufgaben des CDOs mittragen, ist aber falsch. Zwar arbeiten CIO, CMO und CDO innerhalb des Unternehmens eng miteinander zusammen, ihre Aufgabenbereiche aber sind verschieden.

Der CIO plant und realisiert die IT-Projekte in einem Unternehmen. Er ist auf die Technologien spezialisiert, die für die digitale Transformation verantwortlich sind und sie ermöglichen. Der CMO trifft strategische Entscheidungen in allen marketingrelevanten Bereichen eines Unternehmens. Die Herausforderungen der digitalen Transformation und die Aufgaben des CDOs ist jedoch die Verschmelzung dieser Einzeldisziplinen: Der CDO ist das Bindeglied zwischen Marketing, IT und der Geschäftsleitung und für die Umsetzung und langfristige Verankerung der Digitalisierung des Unternehmens verantwortlich. Er vernetzt alle digitalen Prozesse über die Abteilungs- und Unternehmensgrenzen hinaus und muss dabei stets auf den Kundennutzen bedacht sein.

Alle Unternehmensbereiche sind von der digitalen Transformation betroffen

Die digitale Transformation verändert unsere Kommunikation und Arbeitsweise grundlegend. Ein Management, das Antworten auf die Fragen entwickelt, wie die komplexen Veränderungen bewältigt werden können, ist daher für Unternehmen unverzichtbar. Je nach Unternehmensgröße kann es sogar sinnvoll sein, den CDO mit einem eigenen Team auszustatten.
Die Art der Kommunikation verändert durch Smartphones und soziale Medien nicht nur den Kontakt zum Endkunden, sondern auch den Austausch innerhalb der Unternehmensbereiche: die Unternehmenskultur und Produktionsprozesse stehen vor einem Wandel. Online- und Offline-Kanäle verschmelzen, E-Commerce findet mehr und mehr auch zwischen Geschäftskunden statt und die Entwicklung neuer Produkte erfolgt im digital unterstützten Dialog mit den Kunden.

Der Chief Digital Officer hat ein umfangreiches Profil

Die Aufgabenbereiche des CDOs sind weit gefächert, weil er alle unternehmensinternen Prozesse in Zusammenarbeit mit den Fachabteilungen effizienter gestalten und auf die digitale Welt hin ausrichten muss. Es versteht sich also von selbst, dass alleiniges IT- oder Marketing-Know-how für den verantwortungsvollen Job des CDOs nicht ausreicht. Ein CDO braucht ein fundiertes BWL-Know-how, eine ausgeprägte Medien- und Digitalkompetenz, umfangreiches Wissen im E-Commerce, Projekterfahrung, ein exzellentes Datenverständnis und langjährige Erfahrung in Führungspositionen. Selbst schon einmal ein Startup gegründet zu haben und verschiedene Unternehmensgrößen aus dem eigenen Arbeitsalltag zu kennen, ist für den Job als CDO ebenfalls vorteilhaft.
Einen klassischen Werdegang zum CDO gibt es nicht. Er kommt aus den verschiedensten Bereichen wie der Volks- und Betriebswirtschaft, der Informationstechnologie, dem Dienstleistungssektor, der Produktentwicklung oder Kommunikation. Neben den zahlreichen fachlichen Kompetenzen muss ein CDO noch eine ganze Palette sozialer Kompetenzen mitbringen, um die digitalen Themen im Unternehmen erfolgreich vorantreiben zu können.

Ein moderner Leadership-Stil ist das A und O

Auf dem Weg der Digitalisierung eines Unternehmens reicht es nicht aus, eine Strategie zu entwickeln. Entscheidend ist die Umsetzung, an der alle Mitarbeiter der verschiedenen Unternehmensbereiche beteiligt sind. Es ist einerseits Aufgabe des CDOs, die Voraussetzungen für eine umfassende Digitalisierung zu schaffen, andererseits aber auch, alle Mitarbeiter auf dem Weg der digitalen Transformation mitzunehmen, Impulse zu geben und bei der Umsetzung den Überblick zu behalten.
Was jeder CDO zusätzlich zur fachlichen Kompetenz benötigt, ist die Fähigkeit, im Team offen, transparent und kooperativ zu arbeiten. Ein CDO braucht Mut, Überzeugungskraft, Kommunikationsbereitschaft, Leidenschaft für die digitale Welt, Energie, Integrität und viel Geduld. Die umfassende Digitalisierung der Unternehmenswertschöpfungskette ist das Ziel des CDOs. Der Weg dorthin ist ein langer Prozess, bei dem der CDO die Unterstützung aller Mitarbeiter braucht und eng mit dem CIO, CMO und der Geschäftsleitung zusammenarbeiten muss.

Jedes zukunftsorientierte Unternehmen sollte eine digitale Führungskraft haben

Die digitale Transformation ist keine Eintagsfliege. Je früher Unternehmen das Potenzial der Digitalisierung für sich erkennen und ihre Veränderungen für sich nutzen, desto wettbewerbsfähiger und produktiver werden sie in Zukunft sein. Kein Unternehmen kann sich der Digitalisierung entziehen. Die Frage, ob man bei der Digitalisierung mitmacht, stellt sich nicht – es geht lediglich um das Wie. Und genau für dieses Wie ist eine digitale Führungskraft notwendig.
Alle Prozesse innerhalb eines Unternehmens auf digitale Komponenten hin auszurichten, ist eine schwierige Aufgabe, die nicht nebenbei laufen oder auf bestehende Posten im Unternehmen verteilt werden kann. Vielmehr braucht es für diesen langen Prozess eine eigene Führungskraft, die sich vollkommen der ganzheitlichen Entwicklung des digitalen Geschäfts widmet und dabei das Potenzial der Digitalisierung für das Unternehmen ausschöpft. Deshalb benötigen auch kleinere Unternehmen eine digitale Führungskraft, die trotz oft limitierter Ressourcen kreativ und effektiv auf die neuen Gegebenheiten reagiert.

 

Beitrag veröffentlicht im Dez. 2016 im Handbuch Digitalisierung

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/

Mindset: Digital Change

Dringend und wichtig – doch was genau ist „Digitalisierung“ eigentlich?

von Robin Weninger, Anne-Lena Jost und Sophia Bolz

Digitalisierung steht für viele Unternehmen fest auf der Agenda. Laut aktueller PWC-Studie planen 72 Prozent aller Unternehmen, ihren Digitalisierungsgrad in den kommenden fünf Jahren erheblich auszubauen und investieren massiv in moderne Technik.(1)
Doch der Schritt zur digitalen Organisation bedingt noch mehr, nämlich eine weitreichende kulturelle Veränderung – ein Aspekt, der von den Initiatoren oft erst zu spät erkannt wird und dann nicht selten dazu führt, dass der Digitalisierungsprozess ins Stocken gerät oder gar scheitert. Die Verantwortung für das „Projekt Digitalisierung“ kann schon allein aufgrund der Komplexität und des nötigen Kulturwandels nie allein bei einer Abteilung liegen, z. B. der IT, sondern muss von Anfang an das gesamte Unternehmen betreffen.

Digitalisierung ist viel mehr als nur eine Frage der Technologie. Es geht um ein Mindset.

Der Digitalisierungsprozess stellt fast alle Unternehmen vor dieselben Herausforderungen. Es kürzt den Gesamtprozess ab und verhindert Fehler, diese Herausforderungen bereits vorab zu kennen und nicht erst mühsam herausarbeiten zu müssen.

Robin Weninger

Komplexität und Neuartigkeit
Digitalisierung ist komplex und betrifft alle Organisationsbereiche und Hierarchieebenen. Die relative Neuartigkeit des „Projekts Digitalisierung“ für das Unternehmen macht das Vorhaben weitgehend unberechenbar und schwer planbar.

Kompetenzen und Ressourcen
Organisationen, die sich ausschließlich auf unternehmenseigene Ressourcen verlassen, begehen oftmals schwerwiegende Fehler im Digitalisierungsprozess. Denn in der Regel ist es nicht zu erwarten, dass es im Unternehmen bereits Experten in Sachen Digitalisierung gibt. Diese sind jedoch nötig, um den Projekterfolg sicherzustellen.

Lern- und Veränderungsbereitschaft
Unternehmen, die Mitarbeiter sämtlicher Bereiche nicht zur stetigen Optimierung veranlassen, sondern es erlauben, sich auf dem Status quo auszuruhen, werden den wirtschaftlichen Vorteil der Digitalisierung verfehlen – Stichwort Intrapreneurship. Die Organisation muss sich dafür öffnen, neue, unkonventionelle Wege zu gehen und ihre Mitarbeiter stärker auch in strategische Prozesse und die Innovationsfindung einzubinden.

Ganzheitliches Change-Management
Der hohe Grad an Veränderung erfordert exzellentes Change-Management. Im Rahmen dieses Wandels werden oftmals auch zentrale Unternehmenswerte und die Identität hinterfragt und gegebenenfalls neu definiert, was erhebliche Auswirkungen haben kann. Ein holistischer Blick auf die Organisation ist daher schon während der Planungsphase nötig.

Reorganisation und Transparenz
Klassische hierarchische Strukturen werden zunehmend durch Projektlandschaften abgelöst. Damit entsteht aufseiten der Mitarbeiter, aber auch des Managements, automatisch die Forderung nach mehr Transparenz, Konnektivität und aktiver Teilnahme am Firmengeschehen. Unternehmen müssen daher definieren, wie Organisationsstrukturen in Zukunft aussehen sollen.

Kommunikation
Der Bedarf an Verfügbarkeit und Relevanz von Informationen steigt. Dies fordert eine systematische Anpassung der internen Kommunikation, sowohl auf inhaltlicher als auch auf technischer Ebene. Die Themen „Kommunikation“, „Kollaboration“ und „Lernen“ rücken in den Fokus.

Agilität und Flexibilität
Technologiezyklen werden immer kürzer und fordern permanente Veränderungsbereitschaft. Was heute strategisch richtig ist, kann morgen irrelevant sein. Manager müssen planen und die Richtung vorgeben, gleichzeitig aber auch hinterfragen, wann es Zeit ist, den Kurs zu ändern. Wertvolle Impulse kommen nicht mehr nur Top-down, sondern werden auch von den Mitarbeitern ins Unternehmen getragen. Ein offenes Ohr hierfür ist essenziell. Regelmäßige Reflexion und Kollaboration müssen fest im Tagesgeschäft verankert werden. Die sich daraus ergebenden Herausforderungen sind bereits eine große Aufgabe für jede Organisation. Und je größer die Organisation ist, umso komplexer und schwieriger wird die Aufgabe.

Der Digital Leader – Stratege, Visionär und Change-Manager in einer Person

Solche tiefgreifenden Veränderungen erfordern ein systematisches fachliches Vorgehen sowie ein professionelles Change-Management. Gerade Letzteres ist enorm wichtig. Denn, wie in fast allen Change-Projekten, spielen neben harten Fakten die Emotionen der Mitarbeiter (etwa Erwartungen, Hoffnungen und vor allem Befürchtungen) eine entscheidende Rolle. Erfahrene Change-Manager können soziale Prozesse entsprechend gestalten und die Mitarbeiter dort abholen, wo sie gerade stehen.

Aus all diesen Erkenntnissen ergibt sich: Der digitale Wandel kann nicht „nebenbei“ erfolgen. Er gelingt nur, wenn die Chefetage die Digitalisierung aktiv vorantreibt, die beteiligten Mitarbeiter mit den nötigen Kompetenzen ausstattet und das Gesamtunternehmen in die Verantwortung nimmt.
Der Wichtigkeit dieses Prozesses tragen immer mehr Unternehmen Rechnung, indem sie eine eigene Rolle hierfür im Vorstand schaffen: Den „Chief Digital Officer“ (CDO) oder auch „Digital Leader“.
Der Digital Leader hat dabei drei primäre Aufgaben:

  • die digitale Strategie langfristig planen;
  • die (digitale) Veränderung gestalten;
  • die digitalen Fähigkeiten der Organisation ausbauen.

Nichtsdestotrotz bleibt bei all den Herausforderungen und unzähligen Veränderungsinitiativen eine zentrale Frage bisher unbeantwortet: Wie kann Digitalisierung im Unternehmen gelingen?

Der Digital Leader

Die hierarchische Position des Digital Leaders im Vorstand bzw. in der Geschäftsführung hat sich als kritischer Erfolgsfaktor erwiesen, da der Digital Leader zwingend mit den erforderlichen Einfluss- und Steuerungsmechanismen ausgestattet sein muss. Dabei steht und fällt der Erfolg digitaler Maßnahmen mit der Person des Digital Leaders, der idealerweise folgendes Profil aufweist:
Fachlich sollte es sich um einen Experten auf dem Gebiet der Digitalisierung handeln, der bereits Erfolge vorweisen kann.
Zudem muss ein Digital Leader in der Lage sein, das Geschäftsfeld bzw. den Unternehmenszweck vollumfänglich zu begreifen und auf dieser Basis die digitale Vision des Unternehmens mitzugestalten, weiterzutragen und die Langzeitimplementierung digitaler Initiativen zu leiten.
Er muss ein Team zusammenstellen und anleiten können und mit seinem Team sowohl die Bedürfnisse des Business als auch die technische Seite verstehen und beide integrieren können.

Erfahrene Change-Ma­nager können soziale Prozesse entsprechend gestalten und die Mitarbeiter dort abholen, wo sie gerade stehen.

Der CDO und sein Team müssen das Handwerkszeug eines Change-Managers virtuos beherrschen, effektiv über alle Hierarchieebenen hinweg kommunizieren und die Mitarbeiter für ihre Sache begeistern können.
Darüber hinaus spielen nicht nur digitale Kompetenzen und die richtige Einstellung eine wichtige Rolle, sondern auch traditionelle Führungsfähigkeiten werden dem CDO immer wieder abverlangt – ein Spagat, der dem CDO gelingen muss.
Der CDO muss visionär sein und sich stetig weiterbilden, um mit der voranschreitenden Technologie mitzuhalten. Er pflegt daher den Austausch mit Experten sowie idealerweise auch mit anderen Organisationen. Gerade ein Blick über den Tellerrand hinaus zu rein digitalen Geschäftsmodellen ist dabei erfolgversprechend. Es ist daher kein Zufall, dass viele erfolgreiche CDOs Erfahrungen und hervorragende Kontakte in der digital orientierten Start-up-Szene haben und diese aktiv nutzen.

Roadmap Digitalisierung – in vier Schritten zur digitalen Organisation

Das Wichtigste, um den Digitalisierungsprozess erfolgreich zu durchlaufen, ist ein planvolles Vorgehen. Die folgenden vier Schritte geben einen groben Überblick darüber, wie der Prozess sinnvoll gegliedert werden kann.

Schritt 1: Bestandsaufnahme und Analyse des Status quo
Unternehmen auf dem Weg zur Digitalisierung sollten zunächst eine Bestandsaufnahme durchführen. Diese sollte in drei Dimensionen geschehen.

  • In der ersten Dimension wird evaluiert, wie sich die Umwelt des Unternehmens verändert und entwickelt. Daraus ergeben sich Rückschlüsse für das eigene Geschäft. Wichtig ist es hierbei, die technologische Entwicklungsgeschwindigkeit realistisch einzuschätzen. Dinge, die wir erst in fünf Jahren erwarten, können im digitalen Zeitalter schneller Realität werden als gedacht.
  • In der zweiten Dimension werden die unternehmenseigene Strategie, die Kultur und die aktuellen Initiativen kritisch überprüft. Zur Analyse bieten sich Workshop-Formate an, in denen diverse Gruppen diskutieren. Beziehen Sie hier nicht nur Befürworter der Veränderung mit ein, sondern auch Gegner, Mitarbeiter aller Altersgruppen und Hierarchieebenen. Denn Diversität der Diskussionsgruppen hat sich als wichtiger Erfolgsfaktor erwiesen, um kritische, facettenreiche und praxistaugliche Lösungen zu erarbeiten.
  • Die dritte Dimension analysiert die Themenbereiche Prozesse, Personal und Technologie. Dies kann sehr gut durch klassische Gap-Analysen adressiert werden. Im Bereich der Prozesse wäre das z. B. zu durchleuchten, welche Prozesse durch Digitalisierung optimiert werden können – immer mit dem Grundgedanken: Pures Digitalisieren ohne zu hinterfragen und zu optimieren, führt zu keinem idealen Ergebnis. Im Personalmanagement und im Technologiemanagement geht es vorrangig darum, herauszufinden, welche Fähigkeiten bzw. Technologien aufgebaut werden müssen.

Schritt 2: Aufstellung strategischer Initiativen und der Start erster Pilotprojekte
Definieren Sie nun erste Initiativen. Starten Sie im Anschluss mit ersten Pilotprojekten. Anhand dieser kann das Digital-Leadership-Team „üben“. Alle übrigen Mitarbeiter werden kommunikativ eingestimmt und erste Erfolge motivieren die gesamte Organisation. Insbesondere wenn vorherige Change-Projekte in Ihrem Unternehmen gescheitert oder in Verruf geraten sind, ist es wichtig, dass die Pilotprojekte ein Erfolg werden. Stellen Sie dies durch ausreichende Ressourcen und die volle Unterstützung durch das Topmanagement sicher.

Schritt 3: Formulierung eines digitalen Reifeplans
Dieser Schritt auf der Agenda beginnt genau genommen parallel zu Schritt 2 oder nur kurz zeitversetzt.
Es geht im Reifeplan darum, den Rest der Organisation so zu optimieren, dass sie mit der angestrebten Digitalisierung mithalten kann. Konkret heißt das: Prozesse, Mitarbeiter und Technologien müssen zielgenau weiterentwickelt werden. Die in der Bestandsaufnahme gefundenen Lücken zwischen Soll- und Ist-Zustand sollten während der Reifeplanphase bestmöglich geschlossen werden. 

Auch hierbei handelt es sich um ein konkretes Projekt, das vom CDO und seinem Team koordiniert werden muss. Die Ausführung obliegt aber maßgeblich den Fachabteilungen – vor allem (aber nicht ausschließlich) HR, IT und Operations.
Gemeinsam mit den betreffenden Fachabteilungen erarbeitet der CDO zunächst jeweils die konkreten Ziele auf Basis der Bestandsaufnahme und des Soll-Ist-Vergleichs und entwirft einen realistischen Projektplan. Den Fachabteilungen obliegt es nun, die Umsetzung der Projekte gegebenenfalls wieder in Teilprojekte herunterzubrechen, zu delegieren und deren Durchführung sicherzustellen.
Was sehr einfach klingt, erweist sich in der Realität leider oftmals als höchst komplex: Im Projektverlauf fallen den Fachabteilungen fast immer zusätzliche Handlungsschritte auf, die nötig sind, um den Reifeplan einzuhalten.

Anne-Lena Jost

So wird Personalabteilungen während der Phase der Mitarbeiterweiterentwicklung gelegentlich bewusst, dass die ganze Firmen- oder Managementkultur einem Wandel unterzogen werden muss – ein Mammutprojekt! IT-Abteilungen stoßen während der Technologieanpassung nicht selten auf Programme oder Daten, die so veraltet oder kryptisch sind, dass eine zeitraubende Detektivarbeit beginnt, um herauszufinden, wozu diese eigentlich dienen und wie damit zu verfahren ist.
So werden aus anfangs überschaubaren Projekten häufig komplexe, ineinander verflochtene Herausforderungen. Diese sind nur zu lösen, wenn alle Beteiligten an einem Strang ziehen, systematisch miteinander kommunizieren und sich nicht scheuen, Experten von außen oder zusätzliche Fachkräfte für die Bewältigung der Aufgaben hinzuzuziehen. 

Allein das Wissen darum, dass dieser agile Projektverlauf üblich und keineswegs die Ausnahme ist, hilft den Beteiligten bereits, damit umzugehen. Ein erfahrener CDO ist sich dessen bewusst und wird von vornherein entsprechend kommunizieren und handeln.
Die Reifeplanphase ist eine höchst sensible Phase im Digitalisierungsprozess, da sie bereits viele Mitarbeiter einbezieht, die nicht zum Kern-Projektteam gehören. Diese dauerhaft motiviert zu halten und Frustration aufseiten der beteiligten Mitarbeiter und des Managements zu verhindern, ist eine wahre Meisterleistung – und ebenso wichtig, wie der Erfolg der definierten Teilprojekte.
Digitalisierungsprojekte, die in dieser wichtigen, aber schwierigen Phase die Unterstützung der Mitarbeiter verlieren, werden – nach unserer Erfahrung – mit großer Wahrscheinlichkeit scheitern.

Sophia Bolz

Schritt 4: Integration in das Tagesgeschäft
Wenn während der oben genannten Schritte alles planmäßig verlief, sollten erste Pilotprojekte erfolgreich abgeschlossen und in die Organisation übergeben worden sein und das Unternehmen sollte einen möglichst hohen digitalen Reifegrad erlangt haben. Da in der Regel die Ergebnisse all dieser Initiativen nicht zeitgleich auf die Mitarbeiter einprasseln, sondern immer mal wieder etwas Neues hinzukommt, wird aus der digitalen Revolution eine digitale Evolution – ein weniger disruptiver (und damit weniger schmerzhafter), aber niemals endender Change-Prozess.
Unterstützt durch die richtige Kommunikation und gezielte Managemententscheidungen, gelingt damit auch eine positive Einstellung der Mitarbeiter zu Veränderungen: Statt sie zu fürchten, lernen Mitarbeiter, aktiv zu partizipieren – ein essenzieller Bestandteil des „Digital Mindset“ und des „Intrapreneurships“, das die Organisation benötigt.
Schritt für Schritt geht die Organisation also zum Tagesgeschäft über. Die digitalen Aspekte werden zunehmend als Normalität erlebt. Mitarbeiter sind mehr und mehr ermutigt und befähigt, persönlich aktiv zum wirtschaftlichen Erfolg des Unternehmens beizutragen.
Doch die Arbeit des CDOs und seines Teams ist damit noch lange nicht getan: Nun gilt es, Augen und Ohren offen zu halten, Entwicklungen von außen und innen gezielt zu analysieren und die Organisation stetig weiterzuentwickeln. Denn die nächste neue Technologie, die ganze Geschäftsfelder revolutionieren kann, steht womöglich schon in den Startlöchern!
Das in Schritt 2 gebildete Projektteam kann hier als Task-Force agieren oder aber einzelne Teammitglieder können selbstständig weitere Projekte übernehmen bzw. anleiten. Das Ziel muss sein, die Organisation dauerhaft nicht nur technologisch auf einem hohen Standard zu erhalten, sondern vor allem das agile, digitale Mindset in allen Ebenen zu fördern und im Idealfall einen Willen zum Intrapreneurship in jedem einzelnen Mitarbeiter zu verankern.
Natürlich beinhaltet jeder Schritt für sich genommen wieder viele weitere Einzelinitiativen, deren Umfang den Rahmen dieses Kapitels aber sprengen würde. Wollen Sie mehr über konkrete Handlungsempfehlungen, Best Practices und Tipps erfahrener Digital Leader wissen, empfehlen wir Ihnen das kostenfreie eBook „Workbook Digital“.

Zusammenfassung und Fazit

Digitalisierung ist ein dringendes und wichtiges Thema für viele Unternehmen. Insbesondere die kulturellen Auswirkungen der Digitalisierung auf die Organisation dürfen nicht vernachlässigt werden. Denn oftmals ist Digitalisierung für Unternehmen viel mehr eine kulturelle Veränderung statt eine rein technologische. Ein exzellentes Change-Management, geprägt durch einen kompetenten Digital Leader, sowie eine strukturierte Roadmap legen das Fundament zur Meisterung des digitalen Wandels.

Digitalisierung ist neuartig für viele Organisationen und Fehler innerhalb der Initiativen werden nicht ausbleiben.

 

 

(1) Quelle: Industry 4.0: Building the digital Enterprise, PWC, 2016 – https://www.pwc.com/gx/en/industries/industries-4.0/landing-page/industry-4.0-building-your-digital-enterprise-april-2016.pdf

 

Veröffentlicht Dez. 2016 im Handbuch Digitalisierung

 

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/

DevOps treibt Cloud-First in der Finanzbranche an

51% der europäischen Finanzdienstleistungsunternehmen führen den Cloud-First-Ansatz ein. ServiceNow Studie zeigt: europäische Finanzdienstleister klar vorne bei Migration in die Cloud

 

Frankfurt am Main, 4. Mai 2017ServiceNow (NYSE: NOW), das Enterprise-Cloud-Unternehmen, gibt heute die auf die Finanzbranche aufgeschlüsselten Ergebnisse ihrer „Cloud Computing Tipping Point”-Studie bekannt. Diese zeigt, dass der Einsatz von Cloud endlich den Erwartungen gerecht wird. Mehr als die Hälfte (51% Prozent) der Finanzdienstleistungsunternehmen in Europa sind bereits dabei, den Cloud-First-Ansatz einzuführen.

 

Die weltweite Studie basiert auf einer Umfrage, an der 1.850 Führungskräfte aus dem mittleren und oberen Management teilgenommen haben. Darunter waren 102 Studienteilnehmer aus dem europäischen Finanzsektor. Zudem hat die Umfrage ergeben, dass mehr als acht von zehn (84 Prozent) Finanzorganisationen in Europa den Übergang zur Cloud innerhalb der nächsten zwei Jahren vollenden werden – mehr als die durchschnittlich 77 Prozent in anderen Branchen, wie Gesundheitswesen, Produktion und Fachdienstleistungen.

 

Die von ServiceNow in Auftrag gegebene Umfrage untersuchte die Einführung, den Antrieb und die Folgen cloudbasierter Ansätze. Die Ergebnisse der Umfrage zeigen, dass der Einfluss von DevOps in der Finanzbranche immer größer wird, was entscheidende Folgen für IT-Abteilungen nach sich zieht.

 

DevOps treibt Cloud-First in der Finanzbranche an

  • Fast jeder Befragte (93 Prozent) aus dem Finanzsektor gibt an, an der DevOps-Bewegung beteiligt zu sein. Das bedeutet, dass sie bereits im frühen Stadium der Entwicklung und darüberhinaus mit der IT und den Entwicklern zusammenarbeiten, um neue Apps und Services schnell zu entwickeln und bereitzustellen.
  • Die Mehrheit (67 Prozent) erklärt zudem die Zunahme von DevOps als wichtigen Faktor für den Wechsel zu Cloud-First.

 

Cloud-First-Ansatz verlangt neue IT Skills

  • 89 Prozent aller Unternehmen, die den Übergang zu einem Cloud-First-Modell geschafft haben, bestätigen, dass ihr derzeitiges IT-Personal nicht über die nötigen Fähigkeiten verfügt, Cloud-First erfolgreich einzusetzen.
  • 88 Prozent der Befragten glauben, dass die Cloud, zumindest zeitweise, die offizielle IT-Abteilung ersetzen könnte.

 

IT muss sich auf die neue Realität einstellen, in der die meisten Anwendungen sowie die Infrastruktur außerhalb des Rechenzentrums liegen.

  • 72 Prozent sagen, dass mit der Auslagerung der IT in die Cloud, diese in Unternehmen an Bedeutung gewonnen hat.
  • 68 Prozent sind der Meinung, dass IT in der Zukunft eine essentielle Rolle spielen wird.

 

„Jahrelang haben Experten darauf gewartet, dass Unternehmen vom traditionellen Rechenzentrum zum Cloud Computing wechseln. Heute ist der Hype in der Finanzindustrie Realität und der Einsatz von Cloud-First wird in den nächsten zwei Jahren rasant zunehmen”, sagt Chris Pope, Office of the Chief Strategy Officer, ServiceNow.

 

Chris Pope erklärt weiter: „Das Thema Cloud ist nicht neu. Warum führten Unternehmen also erst im Jahr 2016 Cloud-First ein? Die Studie zeigt, dass der Grund dafür die Zunahme von DevOps ist. Durch DevOps haben Unternehmen früh erkannt, dass sie mit Cloud Computing viele Probleme lösen können. Dieses ‚Can do‘-Gefühl – ermöglicht durch die Cloud – verbreitet sich schnell im gesamten Unternehmen.“

 

In der vollständigen Studie können Sie nachlesen, wie IT-Teams in fünf Schritten den Übergang von IT-Entwicklern zu IT-Dienstleistern schaffen.

 

 

 

Über die Studie
ServiceNow beauftragte im August 2016 das ReRez Research aus Dallas, Texas, große Unternehmen in den USA, Großbritannien, Australien, Singapur, Deutschland, Frankreich und den Niederlanden zu befragen. Die Umfrage umfasste insgesamt 1.850 Führungskräfte, gleichmäßig aufgeteilt zwischen IT-, DevOps- und Of-Business-Management.


Über ServiceNow

Unternehmen müssen schneller werden, aber fehlende Prozesse und veraltete Systeme halten sie auf. Jeden Tag erfolgen tausende Kundenanfragen, IT-Ereignisse und HR-Fälle über unterschiedliche Wege und wechseln hin und her zwischen Personen, Maschinen und Abteilungen – unstrukturiert, nicht-dokumentiert und unverbessert seit Jahren. Das ServiceNow System of Action kann diese veralteten, unstrukturierten Arbeitsabläufe mit intelligenten, zukunftsfähigen Workflows ersetzen. So kann jeder Mitarbeiter, jeder Kunde und jede Maschine Anfragen über eine einzige Cloud-Plattform tätigen. Alle Abteilungen, die diese Anfragen bearbeiten, können Aufgaben zuweisen und priorisieren, untereinander zusammenarbeiten, die Hauptursachen untersuchen, Einblicke in Echtzeit gewinnen und entsprechende Maßnahmen durchführen. Das steigert die Mitarbeitermotivation, verbessert das Service Level und erzielt entscheidende Kostenersparnisse. Arbeiten mit Lichtgeschwindigkeit (Work at LightspeedTM).

 

###

 

ServiceNow und das ServiceNow Logo sind eingetragene Marken von ServiceNow, Inc. Alle anderen Marken und Produktnamen sind Marken oder eingetragene Marken ihrer jeweiligen Inhaber.

 

Pressekontakt:

UK

ServiceNow
Samuel Hall

Director, Corporate Communications, EMEA

+44 (0) 1784 222 705
samuel.hall@servicenow.com

 

Bildlizenz: Wikipedia.de

Neuromarketing: wissenschaftliche Impulse für das E-Commerce

Die Kernfrage nach den Grundlagen für Kaufentscheidungen ist für Verkäufer und Marketing-Experten von höchster Bedeutung. Viele Einflüsse aus der Psychologie und Neurobiologie liefern wertvollen Input zum Verständnis menschlichen Handelns. Eine direkte Verbindung zwischen der Funktionsweise des menschlichen Gehirns und den Kaufentscheidungen des Menschen stellt das Neuromarketing her. Eine Umsetzung von Neuromarketing-Wissen hält großes Potential bereit, von dem auch das E-Commerce profitieren kann.

Zur Rolle des Neuromarketings im Online-Geschäft

Begrifflich basiert das Neuromarketing auf den Bestandteilen „Marketing“ und „Neurologie“. Gegenstand des Neuromarketings ist die Nutzbarmachung von Erkenntnissen und Methoden für die Vermarktung von Produkten. Dies geschieht vor dem Hintergrund des Befundes, dass menschliche Kaufentscheidungen niemals vollständig rational und bewusst ablaufen. Der Mensch ist so stark von emotionalen Einflussfaktoren geprägt, dass scheinbar rationale Kaufentscheidungen oftmals nur Einbildung sind. Neuropsychologische Grundlage ist die Auslegung des menschlichen Gehirns auf ein Minimum an Aktivität. Um den Organismus zu entlasten, laufen daher viele Entscheidungen unbewusst ab und entziehen sich der Kontrolle.

Abgrenzung zur Consumer Neuroscience

Einen ähnlichen Gegenstand wie das Neuromarketing hat die Wissenschaft Consumer Neuroscience. Während diese aber im Wesentlichen neurowissenschaftliche Grundlagenforschung anstrebt, ist das Neuromarketing praxisorientiert. Eines der Grundlagenwerke des Neuromarketings ist das gleichnamige Buch von Hans-Georg Häusel.

Der Autor versteht unter dem Neuromarketing die „Nutzung von apparativen Methoden und der Erkenntnisse der Hirnforschung für Marketingzwecke“. Zu diesen Methoden gehören etwa die funktionelle Magnetresonanztomographie (fMRT) oder die Elektroenzephalografie (EEG). Häusel zufolge sind die Erkenntnisse der Hirnforschung für die Marketing-Praxis wertvoller als die apparativen Methoden.

Emotionen als Schlüssel und die Praxis des Neuromarketings

Die Anwendung neurowissenschaftlicher Erkenntnisse im Marketing ist nicht neu, da Werbung seit jeher auf Emotionen zielt. Relativ neu ist jedoch die Erforschung der genauen Wirkmechanismen. Bekannt ist etwa, dass visuelle Reize wie Bilder einen stärkeren Eindruck auf das menschliche Gehirn machen als andere Kommunikationskanäle. Marketer und Werbestrategen profitieren von diesem Wissen und machen es sich zunutze. Theoretisch führt der Weg zum Verkauf eines Produktes auf einfache Weise über die Emotionen der potentiellen Kunden. Im E-Commerce stellt sich allerdings in Besonderem Maße das Problem eines sehr großen Angebots. Potentielle Kunden haben eine unübersichtliche Auswahl ähnlicher Produkte. Entsprechend befinden sich Unternehmen und Marketer in einem harten Konkurrenzkampf um die Aufmerksamkeit der Verbraucher. Aufmerksamkeit ist im E-Commerce die wichtigste Währung, da einzelne Mitbewerber nur wahrgenommen werden, wenn sie sich positiv von anderen abheben.

Die nächste Hürde besteht darin, die Besucher zu Kunden werden zu lassen, sie also zu einer Conversion zu veranlassen. Zu den wichtigsten Techniken gehören hierbei im E-Commerce die Suchmaschinenoptimierung und eine ansprechende und zielgruppenkonforme Landingpage. Das Neuromarketing lehrt, dass schon die kleinsten Aspekte darüber entscheiden können, ob ein Besucher auf der Seite bleibt, zum Kauf veranlasst wird oder die Seite zeitnah wieder verlässt. Daher ist es im E-Commerce von hoher Bedeutung, auf Faktoren wie einen schnellen Seitenaufbau und optimale Navigierbarkeit zu achten.

Bildquelle / Lizenz: pixabay / HypnoArt; veröffentlicht unter CC0

Nachhaltige Geldanlage: Der Wert der Werte

Reportage: People, Planet, Profit! Immer mehr Menschen leisten mit ihren Investments einen ethisch-ökologisch positiven Beitrag. Die Redaktion beleuchtet die Möglichkeiten des Megatrends.

Eurokrise, Brexit, und andere Ereignisse der Weltpolitik sorgen regelmäßig für Kursschwankungen an der Börse. In der Ära Trump sehnen sich daher viele Anleger nach eine Kapitalanlage, die nicht beim nächsten Tweet empfindlich reagiert. Nachhaltige Geldanlagen bieten eine Alternative und werden auch daher immer stärker nachgefragt. Wer sein Geld nicht nur zu Renditezwecken anlegen will, sollte jedoch prüfen, was sich tatsächlich hinter den Etiketten „nachhaltig“, „grün“ „ethisch“, etc. verbirgt.

Im Rahmen einer eigenständigen Reportage gibt die TREND-REPORT-Redaktion in Fallbeispielen, Interviews und Expertenbeiträgen dem Thema „Nachhaltige Geldanlage“ Raum und vermittelt einen Überblick über die verschiedenen Möglichkeiten.

TREND REPORT ist die neue Wirtschaftszeitung, die aktuelle und zukünftige Trends zum Thema macht. Wir suchen nach neuen Anzeichen, die Wendepunkte im Zeitgeist markieren und wir verstehen uns als Partner der Wirtschaft. TREND REPORT liegt als Fremdbeilage der Gesamtauflage des Handelsblattes bei.

Themen und Inhalte:

 

Ökologisch und ökonomisch wertvoll
In Erneuerbare Energien investieren und grüner Stromerzeuger werden!

Mikrofinanz
Prädikat Friedensnobelpreis: Kleinstkredite im Kampf gegen Armut

Altersvorsorge

Weil sich Nachhaltigkeit langfristig auszahlt.

Anlagen mit Sinn

Spezielle Angbeote von Banken und Angebote von Spezialbanken

Anlage mit Sinn?

Worauf man bei der Geldanlage achten sollte.

Nachhaltigkeit ist Sicherheit
Nachhaltige Geldanlagen als Gegenmittel in turbolenten Zeiten

Crowd & Co.
Schwarmfinanzierung und die Möglichkeiten der Digitalisierung

Start-ups
Beteiligungen an guten Ideen und Werten

Einbruchrisiko 100 Prozent, Tragweite: Ruin

Autor: Kai Grunwitz*

Kein Manager kann mehr so tun, als kenne er nicht Wahrscheinlichkeit und Tragweite eines IT-Sicherheitsangriffs. Um es auf den Punkt zu bringen: Das Risiko eines Angriffs liegt bei praktisch 100 Prozent, die Tragweite ist teilweise sogar die Gefährdung der Unternehmensexistenz. Diese Fakten können nicht oft und nicht plakativ genug präsentiert werden.

Um sie zu ignorieren, müssten Manager jeglichem unternehmerischen, medialen und sozialen Leben entsagen: Eine Sicherheitsstudie nach der anderen belegt die Gefahr, auch Publikumsmedien berichten über IT-Angriffe, und so diskutiert auch der Familien- und Freundeskreis darüber.

Tatsache ist: Anzahl und Qualität der IT-Angriffe nehmen täglich zu, und genauso rasant steigt die Abhängigkeit von Daten, so dass die IT-Sicherheit an erster Stelle auf jeder Unternehmens-Agenda stehen sollte. Aber Manager in Topetagen und IT-Abteilungen agieren in eklatanter Weise entgegen jeglicher Logik – und vernachlässigen sie.

Eine Studie von NTT Security (1) bestätigt diese Entwicklung: Die große Mehrheit der befragten Business-Entscheider erwartet in absehbarer Zeit einen Einbruch, der die IT-Sicherheit ihres Unternehmens kompromittiert; gleichzeitig sind die meisten Befragten der Meinung, ihre Daten seien nicht ausreichend geschützt.

Warum in aller Welt entsteht eine solche paradoxe Situation?

Es gibt nachvollziehbare – wenn auch nicht immer entschuldbare – Gründe. In kleineren und mittleren Unternehmen etwa herrscht bei Managern die Meinung vor, ihre Daten seien für Hacker oder Cyberangreifer zu unwichtig. Ein Irrglaube, natürlich. Es mag sein, dass einige dieser Betriebe über weniger schützenswertes geistiges Eigentum verfügen als die großen – dies sei einmal dahingestellt. Alle aber verfügen über Kunden- und Mitarbeiterdaten, die auf keinen Fall in falsche Hände oder in die Öffentlichkeit geraten dürfen; und in Zeiten von Ransomware, die den Zugriff auf Daten mit der einfachen Einschleusung von Trojanern verhindert, sind auch die kleinsten Unternehmen eine leicht zu erpressende Beute. Ihnen bleibt nichts anderes übrig, als Lösegeld zu zahlen, um wieder auf ihre Daten zugreifen zu können.

Viele IT-Manager – nicht nur in kleinen, auch in größeren Unternehmen – gehen davon aus, sie seien noch nicht angegriffen worden. Dabei definieren Sicherheitsexperten bekannterweise zwei Gruppen von Unternehmen: diejenigen, die bereits Opfer von IT-Attacken waren – und diejenigen, die es noch nicht wissen. Würden IT-Verantwortliche die Logs der Zugriffe auf die eigene Infrastruktur auswerten, könnten sie zahlreiche Hinweise finden. Aber Zeit ist knapp in den IT-Abteilungen, und der Aufwand, die gigantischen Datenmengen zu analysieren, ist hoch. Und andere wichtige Aufgaben vom Helpdesk über die Administration bis hin zur Applikationsentwicklung (die Abteilungen machen immer mehr Druck) brauchen zeitnahe Betreuung und erlangen deshalb wider besseres Wissen höhere Priorität. Die Situation ist zum Haareraufen.

Die unglückliche Organisation in den meisten Unternehmen macht die Sache nicht besser. Historisch sind IT-Subbereiche wie Netzwerke, CRM oder ERP, die kaum miteinander reden und ihr eigenes Sicherheitssüppchen kochen, gewachsen. Diese Fokussierung auf Teilbereiche der IT führt dazu, dass zwar regelmäßig an vielen Sicherheitsstellschrauben gedreht wird, der Gesamtaufwand aber kaum effizient sein kann. Die Sicht von oben fehlt und eine allumfassende, integrierte Sicherheitsstrategie, die dafür dringend notwendig wäre, ist so gut wie nicht umsetzbar.

Am Ende raubt das zermürbende Re-agieren auf die immer zahlreicheren, aggressiveren und kreativeren Attacken den IT-Abteilungen die Luft zum Atmen. Hacker geben den Takt vor, und Unternehmen hecheln mangels adäquater Technologie und ausreichender Budgets hinterher, ohne je das Rennen gewinnen zu können.

Ja, da ist noch die Frage der Budgets. Für die meisten Manager in den Vorstandsetagen hat die Einhaltung der IT-Sicherheit zwar eine irgendwie „vorrangige“ Priorität, wie die NTT-Security-Studie zeigt, zumal seit der Snowden-Affäre, die dazu beigetragen hat, Sicherheit auch ins Bewusstsein der IT-fernen Unternehmenslenker zu rücken. Soweit die gute Nachricht.

Die schlechte: Die Implikationen einer mangelnden Sicherheit werden noch immer nicht vollständig begriffen. Das mag auch daran liegen, dass Führungskräfte kaum mit Details über Einbruchsversuche konfrontiert werden. Wenn schon die IT-Abteilung harte Zahlen über Sicherheitsattacken nicht zusammenstellt, weil sie ihre Logs nicht auswertet, wie sollen solche Entscheidungshilfen am Ende auf den Schreibtischen der oberen Etagen landen?

Kein Wunder also, dass die Chefetagen trotz fortschreitender Bewusstseinsänderung notwendige IT-Budgets nicht nach Belieben freigeben – zumal nach jahrelanger Kostensenkung in der IT. Mit mäßigen Budgets kann die IT aber eben auch nicht zaubern.

Größtmögliche Transparenz ist hier der Schlüssel, und die Sicherheitsverantwortlichen in den Unternehmen müssen tätig werden – und zwar an zwei Fronten. Erstens müssen sie mit den Kollegen der anderen IT-Bereiche intensiv kommunizieren. Das Ziel: der Aufbau einer integrierten IT-Sicherheitsabteilung, denn nur eine solche Abteilung bedeutet für die Gesamtsicherheit eines Unternehmens einen Quantensprung. Konsequenterweise heißt das, einen Teil der eigenen Sicherheitsverantwortung abzugeben. Das ist für viele kein einfacher Schritt.

In einer konzertierten Aktion müssen die Sicherheitsexperten zweitens die Entscheider in den Chefetagen über die tatsächlichen Risiken aufklären: mit regelmäßigen, detaillierten Reports (Log-Analysen!), aber auch mit konkreten Szenarien, die den Worst-Case darstellen. Nur so lassen sich mehr Budgets für moderne Technologie, mehr Manpower, adäquate Dienstleistungen und eine effizientere Sicherheitsorganisation freischalten.

Dabei ist die Frage nach den Kosten ohnehin falsch. Es geht nicht darum, was IT-Sicherheit kostet, sondern was der Preis ist, wenn sie versagt. Hinzu kommt, dass Unternehmen Sicherheit als Wettbewerbsfaktor nutzen können und in der Lage sind, damit ein echtes Differenzierungsmerkmal (zumal in der Digitalen Transformation) zu schaffen. Angesichts der steigenden Bedeutung und Vertraulichkeit von Daten ist ein Unternehmen mit einer sicheren IT als Geschäftspartner allen anderen auf jeden Fall vorzuziehen.

(1) https://www.nttcomsecurity.com/de/landingpages/risk-value-2016/

 

* Kai Grunwitz ist Senior Vice President EMEA bei NTT Security

Weltbeste Arbeitgeber gesucht!

 

Troisdorf, GER // Fairfax, VA – 25. April 2017 – Zum zweiten Mal prämieren die jährlich ausgelobten Stevie Awards for Great Employers die besten Arbeitgeber weltweit. Bewerben können sich ganze Unternehmen, HR-Teams und HR-Manager sowie Dienstleister, die Unternehmen darin unterstützen, herausragende Arbeitsplätze zu schaffen. Während die reguläre Teilnahmefrist erst am 5. Juni 2017 endet, profitieren Schnellentschlossene noch bis zum 3. Mai 2017 von reduzierten Teilnahmegebühren.

Ausgezeichnet werden Leistungen, neue Produkte und Dienstleistungen im Personalwesen unter anderem in den Kategorien „Employer of the Year“ in 35 Branchen, „HR Achievement“, „HR Individual“ für herausragende Leistungen von Einzelpersonen, „HR Team“ für Teamleistungen, „New Product & Services“ sowie „Solution Provider“ für beispielsweise Beratungsunternehmen. Teilnahmeberechtigt sind alle Unternehmen weltweit. Bewerbungsrelevant sind alle Leistungen und Projekte, die seit Januar 2016 erbracht wurden.
Die Gewinner dieses internationalen Benchmarkings werden dann am 16. August 2017 bekanntgegeben. Die feierliche Preisverleihung findet am 29. September 2017 im Marriott Marquis Hotel in New York statt.

Informationen, wie sich Unternehmen am besten bei den 2. Stevie Awards for Great Employers bewerben, finden Sie auf der Awards-Webseite.

Eine Übersicht über die Gewinner 2016 finden Sie hier.

Wir freuen uns über Ihre Veröffentlichung. Für Rückfragen, weitere Informationen, Bildmaterial oder Interviewpartner stehen wir Ihnen selbstverständlich gerne zur Verfügung.

Catrin Beu
Communications Manager

Die Stevie Awards in Europa
c/o Catrin Beu
Kommunikation im Quadrat
Telefon: +49 228 629 968 87
E-Mail: catrin@stevieawards.com

Über die Stevie Awards
Stevie Awards werden im Rahmen von sieben Programmen verliehen: Die American Business Awards, die German Stevie Awards, die International Business Awards, The Stevie Awards for Women in Business, die Stevie Awards for Sales & Customer Service, die Stevie Awards for Great Employers und die Asia-Pacific Stevie Awards. Organisationen jeder Art und Größe, aber auch Einzelpersonen aus der Wirtschaft werden für ihre herausragenden Leistungen am Arbeitsplatz weltweit gewürdigt. Weitere Informationen über die Stevie Awards erhalten Sie unter www.StevieAwards.com. Folgen Sie den Stevie Awards auf Twitter @TheStevieAwards.

 

Quelle Aufmacherbild: https://pixabay.com/de/human-resources-rekrutierung-1917296/

 

Drei Trends, die der Geldtransfermarkt verschlafen hat

Von Dora Ziambra, Head of Business Development bei Azimo

 

1) Nutzerfreundlichkeit

Wer auf dem traditionellen Weg schon mal Geld verschickt hat, der weiß wie umständlich der Prozess ist. Vor 20 Jahren war es für die Menschen noch normal, zahlreiche Dokumente auszufüllen, um Geld zu verschicken. In Zeiten des Internets kann man das keinem mehr nachvollziehbar begründen – genauso wenig wie Banken erklären können, warum digitales Geld mehrere Tage braucht, um auf dem Konto des Kunden zu erscheinen.

Das Internet hat die Nutzerfreundlichkeit zahlreicher Dienste verbessert. Wieso können wir ein ganzes Haus im Internet planen und zusammenstellen, aber nicht 1.000 Euro nach Venezuela schicken? Die einfache Handhabung, die wir von unserem Smartphone kennen, wollen wir auch für unsere Geldgeschäfte haben. Wir bei Azimo haben uns gefragt, warum man nicht einfach Geld genauso leicht verschicken kann wie eine SMS – und haben die Frage dann beantwortet.

2) Mobilität

Vor allem in den Schwellenländern wächst die Zahl der Menschen, die Smartphones besitzen rapide. Viele überspringen dabei auch den klassischen Schritt über den Desktop PC wie in den Industrieländern. Ein Fall machte mir das besonders klar: In Aserbaidschan sprach ich mit einem Schäfer über seine Erfahrungen mit dem Internet. Seine Antwort: „Internet? Kenn ich nicht, brauch nicht.“ Einige Sekunden später holte er sein Smartphone heraus und postete etwas auf Instagram.

Das klassische Internet wie wir es vom Desktop kennen, gibt es in Schwellenländern kaum. Dort steigen Nutzer sofort mit dem Smartphone ein und ihr „Zugang“ zum Internet ist nicht über den klassischen Browser, sondern über Apps. 2014 besaßen fast zwei Milliarden Menschen ein Smartphone – Tendenz steigend. In Ländern mit geringerem Einkommen haben mehr Menschen ein mobiles Endgerät als einen Stromanschluss.Das Smartphone wird immer mehr zur Brieftasche (auch weil es sicherer ist als ein klassisches Portemonnaie) und hat in ärmeren Regionen das Bankkonto bereits teilweise abgelöst. Für uns war es deshalb naheliegend diesen Trend zu nutzen: Mit Azimo kann man Geld direkt auf ein Prepaid-Handy in über 100 Länder weltweit verschicken, wozu man nur die Handynummer des Empfängers braucht. Eine Funktion, die eigentlich naheliegend scheint, aber bisher von den etablierten Playern weitestgehend vernachlässigt wurde.

3) Kosteneffizienz

Mit der starken Vernetzung und Digitalisierung unserer Welt sind in zahlreichen Branchen die Preise gefallen. Umso mehr stößt es deshalb auf Unverständnis, dass man für eine Geldsendung nach Russland fast zehn Prozent an Gebühren bezahlen muss. Die traditionellen Geldversender arbeiten mit dem Agentensystem und haben deshalb zahlreiche Instanzen, durch die das Geld läuft – und jede Instanz bekommt ein Stück vom Kuchen ab. Das erklärt die hohen Kosten.

Dabei kann man dank moderner Technologie das Geld ohne die vielen Mittler direkt verschicken und damit den Preis gravierend senken. Zwar haben viele Geldversender ihre Preise schon gesenkt, doch das veraltete Agentenmodell gibt wenig Spielraum nach unten.

Über Azimo

Das Londoner Fintech-Unternehmen Azimo bietet digitale, mobile Lösungen für den Geldtransfer ins Ausland an. Azimo wurde 2012 mit dem Ziel gegründet, den globalen Geldtransfermarkt zugunsten von Privatnutzern zu verändern. Der Service ermöglicht es heute, Geld in über 190 Länder weltweit in mehr als 70 Währungen bequem und zu geringen Kosten zu versenden. Dank der mobilen Azimo-App kann das Geld schnell und sicher per Smartphone und Tablet transferiert werden. Azimo steht für Ehrlichkeit und Transparenz, für gesellschaftliche Verantwortung und Engagement.

Sicherheit: Sowohl unsere Webseite, als auch unsere App nutzen die Technik des „MasterCard SecureCode“ und „Verified by Visa“, um doppelte Sicherheit zu gewährleisten. Wir nutzen ausgefeilte Multipunkt-Technologie, um sicherzustellen, dass alle Transaktionen die „Know Your Customer“-Richtlinien (KYC) und regulatorischen Prüfungen, inklusive der OFAC-Blacklist durchlaufen.

Regulierung: 

Financial Conduct Authority (FCA) Azimo Ltd ist durch die Financial Conduct Authority (FCA) unter den Bestimmungen des Elektronischen Geldverkehrs 2011 (FRN 900220) autorisiert, elektronische Geldtransfers zu bearbeiten und auszuführen.

HM Revenue and Customs (HMRC) Azimo ist auch bei der britischen Steuerbehörde HMRC als Unternehmen für Gelddienstleistungen registriert (Registernummer 12676497).

Informations Commissioners Office (ICO) Azimo ist für den Umgang mit personenbezogenen Daten bei der Britischen Datenschutzbehörde ICO (Ref ZA013054) eingetragen.

AUKPI Azimo ist eingetragenes Mitglied des Britischen Handelsorgans für Zahlungsinstitutionen und Agenturen, der United Kingdom Money Transfer Association.

IAMTN Azimo ist eingetragenes Mitglied des internationalen Verbandes für Zahlungsinstitutionen und Agenturen, International Association of Money Transfer Networks. IAMTN arbeitet mit der Regierung und Regulierungsbehörden zusammen und vertritt die Branche weltweit.

Website: https://azimo.com/de/

Facebook: https://www.facebook.com/azimomoney

Twitter: https://twitter.com/Azimo

 

Über Dora Ziambra, Head of Business Development, Azimo

Dora ist bereits seit 2014 Teil des Azimo-Teams und sie bringt ausgepägte Erfahrungen aus dem Finanzsektor mit. Sie ist begeistert von der Vielfalt innerhalb der FinTech-Branche und sie ist neben ihrer Arbeit Coach für die Cartier Women’s Initiative Awards. Nachdem sie in früheren Rollen stets eine von nur sehr wenigen weiblichen Tradern war, ist sie heute eine verfechterin von Gleichberchtigung in der modernen Arbeitswelt.

Als Head of Business Development ist Dora maßgeblich daran beteiligt, das Partner-Netzwerk von Azimo in über 190 Ländern aufzubauen und das Geschäft in neuen Märkten zu etablieren. Es ist eine stetig wachsende Aufgabe, da das Unternehmen rasant wächst – zu ihren täglichen Aufgaben gehören neben der Beziehungen zu den Partnerbanken und dem Aufbau von strategischen Partnerschaften auch das Fundraising und die Organisation der internationalen Expansion.

Vor Azimo, hat Dora ihren fairen Anteil der Luftmeilen während ihrer globalen Karriere aufgeladen. Sie begann als Derivatehändlerin in Chicago, baute ihr eigenes Optionshandelsgeschäft in Deutschland, arbeitete im internationalen Bankgeschäft in London und Frankfurt und schloss sich der Gründungsberatung in Afrika an. Unterwegs hat sie für EZB, Deutsche Börse und PayPal gearbeitet.

Dora wurde als eine der Innovate Finance Frauen in FinTech 2015 und gewann Best Pitch bei einem UKTI FinTech Veranstaltung in Singapur. Sie hält eine BA vom Bryn Mawr College und einen MBA von INSEAD.

Twitter: @Doraziexplora

LinkedIn: https://www.linkedin.com/in/doraziambra

 

Lizenz Aufmacherbild: Azimo Ltd.

 

 

Logistik 4.0 – IT treibt Logistik

Reportage: Material- und Informationsfluss müssen im Zeitalter der Digitalisierung neu ausgerichtet werden. Logistik und IT als Innovationstreiber für den Wirtschaftsstandort Deutschland

 

Keine Industrie 4.0 ohne Logistik 4.0.
Die übergreifende Automatisierung und Optimierung, von Waren- und Informationsflüssen in der Logistik wird zur Pflicht, will man den Herausforderungen, die M-Commerce, IoT oder Same-Day-Delivery-Konzepte mit sich bringen, bewältigen.

Die TREND-REPORT-Redaktion zeigt auf wie sich die Logistik-Branche im Zuge der Digitalisierung verändert. Ausgelöst durch die Individualisierung von Produktion und Dienstleistung ebenso wie durch die Globalisierung steigt der logistische Aufwand in Zukunft überproportional. Erfolgreiche Zustellsysteme im E-Commerce und M-Commerce basieren auf einer umfassenden Logistik- und IT-Kompetenz. Unternehmen, die nicht auf die Verbindung von IT und Logistik fokussieren,
werden mittelfristig aus dem Wettbewerb ausscheiden

TREND REPORT ist die aktuelle Wirtschaftszeitung, die zukünftige Trends zum Thema macht. Wir suchen nach neuen Anzeichen, die Wendepunkte im Zeitgeist markieren und verstehen uns als Partner der Wirtschaft. TREND REPORT liegt als Fremdbeilage der Gesamtauflage des Handelsblattes bei.

 

Themen und Inhalte:

Logistik-IT trifft Industrie 4.0
Die neue Führungsrolle der Logistik in der Informationstechnologie.

 

IT und Intralogistik
Effizienzsteigerung durch verbesserte Kommunikation von Mensch und Maschine

 

Supply Chain Management
Optimierte Planung und Betrieb von Logistiknetzwerken für mehr Transparenz

 

Vernetzung und Integration
Cyber Physical Systems

 

Multichannel-Fulfillment
Erfolgskomponenten für den E-Commerce

 

E-Logistik-Lösungen
ERP-/PPS Systeme, SCM-Systeme, Sicherheitssysteme, TMS-Systeme, WMS-Systeme, AutoID-Systeme, Barcode, RFID, Sensornetzwerke

 

E-Commerce und M-Commerce
Erfolgreiche Zustellsysteme im E-Commerce und M-Commerce

 

Nachhaltigkeit logistischer Netzwerke
Engagement durch Innovationen

 

Hier können Sie das vollständige Themenexposée herunterladen

Hier geht es zu den Mediadaten

 

Bildquelle / Lizenz: Bildmotiv Copyright:
Shutterstock / ecspelliarmus

 

Mobile Economy

Das Smartphone hat sich als Treiber einer digitalisierten Gesellschaft erwiesen. Die Reportage sensibilisiert für mobiles Arbeiten und Leben.

Das Smartphone hat wie kaum ein anderes Werkzeug die Digitalisierung vorangetrieben. Nun kommt die nächste Ausbaustufe: Chatbots bringen „künstliche Intelligenz to go“ und industrielle Anwendungen profitieren von Pre-5G-Diensten. Im Kontext unseres Titelthemas „Die vernetzte Gesellschaft“ portraitieren wir den Nutzen mobiler Dienste und Services für Wirtschaft und Gesellschaft aus verschiedenen Perspektiven. Im Fokus stehen neue Geschäftsmodelle und Dienste, die den digitalen Reifegrad in den Unternehmen stärken. In Fallbeispielen und Interviews präsentieren wir neue Tech-nologien, die sich im aktuellen Zeitgeist widerspiegeln.

Wir diskutieren mit Experten aus Wissenschaft und Wirtschaft über die zunehmende Vernetzung durch das Smartphone im Zeitalter von Big Data als Treiber einer Gesellschaft im digitalen Wandel.

Themen und Inhalte:

Mobile only
Anwendungen für mobile Geschäftsprozesse

Mobiles Arbeiten und Leben
Das Smartphone ist zum Synonym für ein von Mobilität geprägtes Leben geworden.

Pre-5G & IoT
Industrielle Anwendungen über mobile Netze

Wirtschaft und digitale Sicherheit
Was passiert, wenn nichts mehr geht? IT-Security und Netzneutralität im Fokus

„Künstliche Intelligenz to go“
Chatbots und digitale persönliche Assistenten als Missing-Link für die App-Economy?

Vernetzte Mobilitätskonzepte
Von E-Mobility bis Carsharing: Die App im Zentrum

Digital Lifestyle
Smart Home, Wearables & Co.

Think new
Geschäftsmodelle via Smartphone

Digitale Ökosysteme
Unverzichtbar für den Handel: digitale Wertschöpfungskette für physische Produkte

Hier können Sie das vollständige Themenexposée herunterladen

Hier geht es zu den Mediadaten

Bildquelle / Lizenz: Bildmotiv Copyright: AOK BV; fotolia.com: Lukas Gojda; Bitte Urheberrechte beachten

 

 

Vernetzte Mobilitätskonzepte

Reportage: Wie wirkt sich die Digitalsierung auf die Mobilität in Zukunft aus und mit welchen Bedingungen müssen sich Konzepte auseinandersetzen? Gesucht wird das verbraucherorientierte Mobilitätsverständnis.

Urbane Lebensräume gewinnen immer stärker an Attraktivität. Wachsende Städte gehen mit wachsendem Verkehr einher. Im Kontext der nächsten TREND-REPORT-Ausgabe hat die Redaktion den interdisziplinären Schwerpunkt „Die vernetzte Mobilität“ mit dem Ziel gesetzt, die Digitalisierung und ihren Nutzen für Staat, Wirtschaft und Gesellschaft aus verschiedenen Perspektiven zu thematisieren.

In Fallbeispielen und Interviews präsentieren wir neue Geschäftsmodelle und Technologien, die im Trend liegen und sich im aktuellen Zeitgeist widerspiegeln. Wie wirken sich „Car-Sharing-Modelle“ und das „Internet der Dinge“ aus? Und mit welchen Faktoren muss sich eine nachhaltige Mobilität der Zukunft auseinandersetzen? Diese und weitere spannende Fragen diskutiert die Redaktion mit Experten aus Wissenschaft und Wirtschaft.

 

Themen und Inhalte:

 

Sharing Economy
Teilen statt besitzen – Carsharing & Co.

 

Vorbildliche Infrastrukturen:
Städte und Kommunen mit neuem Mobilitätsverständnis und Elektro-Trends im öffentlichen Nahverkehr.

 

Connected Cars
Das Marktvolumen für Connectivity-Dienste verfünffacht sich bis 2020.

 

E-Mobility
Elektromobilität und alternative Konzepte

 

Fahrzeugbau der Zukunft
Immer leichter für mehr Effizienz

 

Flotten- und Fuhrparkmanagement
Business-Carsharing u. virtuelle Flotten

 

Finanzierung der Mobilität
Autobanken online

IoT & Telematik
High-Tech-Strategien für den Standort Deutschland

 

Mit dem E-Bike ins Büro
Innovative Mobilitätskonzepte für agile Mitarbeiter

 

Hier können Sie das vollständige Themenexposé herunterladen

Hier geht es zu unseren Mediadaten

„Räume für das Arbeiten von morgen“

Die TREND REPORT-Redaktion sprach mit Uli und Uwe Kessel, Geschäftsführer des Rotonda Business Clubs sowie dem Gründer und Geschäftsführer von Design-Offices, Michael Schmutzer. Beide Unternehmen machen sich in einer Allianz stark für die Begegnung. Der Rotonda Business Club ist ein „physisches“ soziales Netzwerk – also weit mehr als „nur“ ein Co-Working-Space. In den von Design Offices gestalteten Räumen finden Menschen zusammen und arbeiten gemeinsam an Orten, die inspirierend ausgestaltet sind.

Was bedeuten „Räume für das Arbeiten von morgen“?
Uli Kessel: „Auch in Zukunft wird Arbeit in Räumen stattfinden. Mit unserem Claim „Wir geben Beziehungen Raum“ meinen wir deshalb tatsächlich auch die physikalischen Räume, nämlich inspirierende Meeting-, Lounge- und Veranstaltungsräume. Dort kommen auch im digitalen Zeitalter echte Menschen an echten Orten zusammen. Für uns als Business Club ist das einer der Treiber von unternehmerisch relevantem Networking. Zusammen mit Design Offices können wir solche Räume deutschlandweit anbieten. Doch ein Business Club ist noch viel mehr: Ein Anruf bei unseren Clubmanagern, die als Kuratoren des persönlichen Netzwerks fungieren, und Ihnen steht das gesamte Rotonda-Netzwerk zur Verfügung.“
Michael Schmutzer: „Wir wissen aus Erfahrung, dass unsere Kunden zwar eine professionelle Arbeitsumgebung wünschen, aber sie wollen nicht den typischen Look eines Bürogebäudes. Sie wollen nicht im klassischen Büro arbeiten, sondern sie möchten an Orten arbeiten, die eine angenehme und lebendige Atmosphäre versprühen. Das ist für das Arbeiten von morgen ein ganz relevanter Punkt. Physische Räume ja, aber nicht in den Strukturen und der angestaubten Atmosphäre von gestern.“

Was ist das Spannende und Zukunftsweisende an den Angeboten des Rotonda Business Club?
Uwe Kessel: „Wir sind der einzige Business Club, der inhaltlich an den Themen der Mitglieder mitarbeitet (Unternehmensentwicklung, Nachfolge, Digitalisierung etc.) und systematisch überregional Entscheider zusammenführen kann. Unsere Mitglieder sind bundesweit unterwegs und haben in jeder größeren Stadt ein Zuhause. Unser Anspruch ist nicht das „Netzwerken“, was häufig auf den reinen Austausch von Visitenkarten verkürzt wird. Wie viele Ihrer Online Netzwerk Kontakte könnten Sie jetzt anschreiben, wenn Sie Unterstützung benötigen? Wenn Ihnen jemand, den Sie nicht kennen, eine Nachricht schreibt, wie wahrscheinlich ist es, dass Sie antworten werden? Wir stellen die Beziehung in den Mittelpunkt. Heute können die meisten nicht mehr als 20 bis 30 Beziehungen intensiv pflegen. Unsere Vision ist, dass einer dieser Kontakte einer unserer Clubmanager ist. Denn er pflegt für Sie die Beziehung zum Rest des Clubnetzwerks und hilft Ihnen bei Ihren Anliegen.

Wer im Rotonda Business Club arbeiten möchte, legt viel Wert auf eine Atmosphäre, die nicht dem klassischen Bürodenken entspricht.

Wer im Rotonda Business Club arbeiten möchte, legt viel Wert auf eine Atmosphäre, die nicht dem klassischen Bürodenken entspricht.

Wie ist die Idee entstanden, die Angebote zu verbinden?
Michael Schmutzer: „Durch gemeinsame Projekte haben wir festgestellt, dass wir eine große gemeinsame Basis haben. Viele Nutzer von Design Offices sind gleichzeitig auch Mitglieder im Rotonda Business Club. Diese Menschen leben bereits New Work, wollen darüber hinaus aber auch die Vorzüge eines Business Clubs. Da war es natürlich naheliegend, unsere Angebote zu bündeln und den Kunden so das Beste aus beiden Welten zu bieten. “
Uli Kessel: „Wir teilen die Vision eines neuen vernetzten Arbeitens, das weiter konkrete Orte braucht. Einmalige Räumlichkeiten in jeder großen Stadt. Immer zentral gelegen und in der Nähe zum Bahnhof. Dazu noch tolle Mitarbeiter, die an der gemeinsamen Idee mitwirken. Bessere Voraussetzungen für einen bundesweiten Business Club gibt es nicht.“

Wie virtuell und wie konkret werden (Geschäfts-)Beziehungen und Networking in Zukunft sein?
Uwe Kessel: „Online-Netzwerke können ein gutes Kommunikationsmedium sein, trotzdem braucht es weiterhin den ganz konkreten Austausch von Angesicht zu Angesicht. Das Problem vieler „konkreter“ Networking-Veranstaltungen ist, dass die Teilnehmer unterschiedliche Motive für einen Besuch haben. Der eine sucht Kunden, der andere den Blick über den Tellerrand, wieder andere fachlichen Input oder Inspiration. Dabei ist das eine große Ziel der Aufbau von Beziehungen. Und eine Beziehung ist erst dann aufgebaut, wenn Mitglieder sich so gut kennen und vertrauen, dass sie bereit sind, für den anderen aktiv zu werden. Um das zu erreichen, ist es aus unserer Sicht unerlässlich, sich tatsächlich zu treffen, zu sprechen, gemeinsam zu denken und in einer inspirierenden Atmosphäre auszutauschen. Gute Beziehungen sind immer konkret, auch und gerade in einer zunehmend digital und virtuell vernetzten Zukunft.“

Das Arbeiten 4.0 ist gekennzeichnet durch große Freiräume in der Arbeitsplatzgestaltung. Für den persönlichen Kontakt kommen Events eine große Bedeutung zu. Diese können jederzeit in dem Business-Club gestaltet werden.

Wie agil sind die arbeitenden Menschen in Deutschland bereits – wer nutzt die Angebote schwerpunktmäßig?
Uli Kessel: „Unsere Mitglieder spiegeln die gesamte wirtschaftliche und kulturelle Bandbreite der Unternehmen in Deutschland wider: etablierte Konzerne, Kanzleien, Start-ups, Kreative und Politiker. Jede dieser Personen findet bei uns das passende Angebot. Und alle diese Personen sind deutschlandweit mobil und wollen deshalb auch deutschlandweit Beziehungen aufbauen. Gerade Unternehmen aus der Old Economy finden den Brückenschlag zu Start-ups spannend. Hier ergeben sich vielfältige und immer neue Impulse für Kooperationen und eine gemeinsame Zusammenarbeit.“

Welche unternehmerischen Ziele oder Anliegen lassen sich auf diese Weise besser realisieren als vorher?
Uwe Kessel: „Die bundesweite Mitgliedschaft bringt für unsere Mitglieder viele Vorteile, die sie vorher nicht hatten. Offensichtlich ist natürlich, dass es besser ist, in acht Städten Zugriff auf Räume und ein persönliches Kontaktumfeld zu haben, statt nur in einer Stadt. Auch die Vernetzung in ganz Deutschland bringt viele Vorteile. Der richtige Partner sitzt häufig nicht in der gleichen Region. Und wichtige Themen lassen sich so bundesweit diskutieren. Die Digitalisierung interessiert nicht nur die Leute in München, sondern auch in Berlin. Gerade das innovative Start-up aus Hamburg ist vielleicht im Rahmen einer Kooperation für das Unternehmen aus Stuttgart interessant, während der potentielle Investor in Frankfurt sitzt. Und auch das sollte man nicht vergessen: Mit dem größten Business Club Deutschlands bauen wir auch das größte Netzwerk an Business Angels und Investoren in Deutschland auf.“

Das Netzwerken steht im Vordergrund. Das war auch die zentrale Idee, welche die Unternehmen Rotonda Business Club und Design-Offices verbindet.

Das Netzwerken steht im Vordergrund. Das war auch die zentrale Idee, welche die Unternehmen Rotonda Business Club und Design-Offices verbindet.

Wohin entwickelt sich Arbeiten 4.0, welche Revolutionen oder vielleicht Revivals erwarten uns – und welche (neuen) Geschäftsmodelle ergeben sich daraus?
Michael Schmutzer: „Ich denke, dass unsere Zusammenarbeit eine Revolution in der Arbeitswelt werden wird, denn sie macht die Philosophie von New Work direkt erlebbar. Wir wissen aus unserer Arbeit, dass die Kreativität oftmals im Zwischenraum entsteht. Hier haben wir einen großen Zwischenraum geschaffen. Und es geht nur über das Thema Sharing; indem ich sage: Ich brauche das nicht alles für mich alleine. Aber ich kann es dann nutzen, wenn ich es brauche und wie ich es brauche.“
Uli Kessel: „Arbeiten 4.0 heißt, dass man räumlich flexibel arbeiten kann. Man sitzt nicht mehr jeden Tag am selben Arbeitsplatz, im selben Gebäude desselben Unternehmens. Auftraggeber, Ort und Schreibtisch ändern sich. Das bringt viele Vorteile, hinterlässt jedoch auch eine Lücke: Der Mensch ist ein soziales Wesen und lebt auch von Beziehungen. Früher war der Arbeitsplatz ein Ort, an dem sich Beziehungen entwickelt haben. Durch New Work ändert sich das. Man ist mehr unterwegs und das Gefühl der Heimat, dieser bekannten Umgebung mit eigenem Background, kommt abhanden. Unser Ziel ist es deshalb, dass unsere Mitglieder an jedem Standort ihre Homebase finden. Diese Empfindung ist der Nährboden für Beziehungen. Und das Revolutionäre ist, dass diese Beziehungen viel stärker auf Personen außerhalb meines Unternehmens fokussiert sind. Dadurch entstehen neue Arten der Kooperation und damit auch neue Geschäftsmodelle, die aus dem Sharing ein Mehr für alle generieren. Sowohl Design Offices als auch der Rotonda Business Club leben und erleben das jeden Tag.“

Weitere Informationen unter:
https://rotonda.de/
https://www.designoffices.de/

Über den Rotonda Business Club
Uli (li.) und Uwe Kessel, Gründer des Rotonda Business Club.

Uli (li.) und Uwe Kessel, Gründer des Rotonda Business Club.

Der Rotonda Business Club ist das größte aktive Netzwerk unternehmerisch denkender und handelnder Menschen in Deutschland. Seit 1999 am Stammsitz in Köln etabliert, hat das Unternehmen seine Vision von einem zukunftsorientierten Clubangebot inzwischen auf 8 Standorte und über 2.000 Veranstaltungen im Jahr ausgeweitet. Unter dem Claim „Raum für Beziehungen“ versteht sich der Rotonda Business Club als wirtschaftlicher und sozialer Drehpunkt, der sich mit starken Inhalten und attraktiven Räumen aktiv für die Vernetzung seiner über 900 Mitglieder einsetzt.
Die Geschäftsführer Uli und Uwe Kessel zählen sich selbst „zu den Entdeckern“ in der Business-Welt: Uli Kessel liebt es, Welten zu entdecken. Die Welt der Unternehmen und ihrer Beratung ebenso wie die Welt „draußen“, beide voller Geschichten und interessanter Menschen, von denen Uli Kessel sich gerne inspirieren lässt. Dabei tun sich immer spannende Wege auf. Ihn selbst hat es nach Stationen in der Wirtschaftsprüfung und der Unternehmensberatung zum Einstieg in den Rotonda Business-Club geführt. Uwe Kessel ist mit Leidenschaft unterwegs. Als Triathlet liebt er die Herausforderung, verschiedene Elemente und Disziplinen zusammenzuführen. Genau das prägt ihn auch als begeisterten Unternehmer. Im Rheinland verwurzelt und vernetzt, ist er immer auf der Suche nach neuen interessanten Verbindungen. 2011 initiierte er gemeinsam mit Unternehmern aus der Region die Gründung der Rotonda Business Angels.

Über Design Offices
Michael O. Schmutzer, Gründer und Geschäftsführer von Design Offices.

Michael O. Schmutzer, Gründer und Geschäftsführer von Design Offices.

Design Offices ist einer der führenden Anbieter von richtungweisenden Raumlösungen für modernes Arbeiten mit deutschlandweit mehr als 10 Standorten und über 34.000 qm Gesamtfläche. Michael O. Schmutzer hat bereits sehr früh antizipiert, was für umwälzende Veränderungen der Arbeitswelt bevorstehen. Der Vollblutentrepreneur entschied sich einer der Treiber der Entwicklungen zu werden und gründete 2008 Design Offices. Längst ist sein Unternehmen zur bedeutenden Brutstätte für bahnbrechende neue Ideen geworden. Mit einem visionären Konzept und einer richtungweisenden Architektur ist Design Offices heute die wichtigste Plattform für das Thema New Work und die Gestaltung von neuen Arbeitswelten in Deutschland. Seit der Gründung genießt man die Wertschätzung der renommiertesten nationalen und internationalen Unternehmen. Das Geheimnis von Schmutzers Erfolg liegt in seiner akribischen Research-Arbeit begründet, kaum jemand weiß besser über die neuesten gesellschaftlichen und ökonomischen Trends Bescheid, als er.

Bildquellen / Lizenz: Rotonda Business Club / Design Offices

Die HR-Leistungsfähigkeit durch smarte IT-Lösungen erhöhen

Der Druck auf die HR-Bereiche in den Unternehmen steigt. Denn moderne Personalabteilungen werden nicht nur an der Erledigung administrativer Aufgaben gemessen, sondern als proaktiver Dienstleister im Unternehmen verstanden, der seinen Wertbeitrag erbringen und nachweisen muss. Vor dem Hintergrund knapper Budgets und gleichzeitig steigender Komplexität wird von den Personalabteilungen erwartet, dass sie nach neuesten betriebswirtschaftlichen Konzepten und Methoden arbeiten, ihre Prozessstrukturen wirtschaftlich und sparsam gestalten, die Kosten senken und mit einer agilen und schlagkräftigen HR-Organisation dafür sorgen, dass qualifizierte Mitarbeiter gewonnen und an das Unternehmen gebunden werden. Gleichzeitig müssen sich die HR-Abteilungen Veränderungen flexibel anpassen und damit nicht nur ihre, sondern die Leistungsfähigkeit des gesamten Unternehmens sicherstellen. HR wird als Business Partner und relevanter Wertschöpfungsfaktor gesehen, der die neuen Formen des Arbeitens, sprich die Flexibilisierung von Arbeitszeit und Arbeitsort, gekonnt steuert.

Höhere Qualität, bessere Effizienz

Eine höhere Qualität der HR-Leistungen, optimierte Prozesse und Effizienzsteigerungen sind angesichts des wachsenden Leistungsumfangs der HR aber nicht mit althergebrachten Methoden zu erreichen. Ein zielorientierter IT-Einsatz allerdings kann wesentlich dazu beitragen, den Druck zu verringern und die Servicequalität der HR-Abteilung zu erhöhen. Denn die IT-Abteilungen haben ihre Abläufe bereits in den letzten Jahren auf ein softwaregestütztes Service-Management gemäß den ITIL-Empfehlungen (IT Infrastructure Library) umgestellt. Mit einer ITIL-konformen Service-Managementlösung erfolgen sämtliche Veränderungen an der IT prozessbasiert und auf optimierte, standardisierte Weise. Es bietet sich an, moderne Service Management-Lösungen auch im HR-Bereich zu nutzen und sie an deren Anforderungen auszurichten.

Anpassung an HR-Prozesse

Als Basis für die Abbildung automatisierter Abläufe gemäß ITIL dient eine sogenannte Workflow Engine. Für den Einsatz dieser Workflow Engine ist es unerheblich, ob der abzubildende Prozess aus dem IT-Umfeld stammt, aus dem Facility-Management, dem Fuhrpark-Management oder eben dem Bereich Human Resources. Moderne Service Management-Lösungen ermöglichen relativ einfach die Abbildung von HR-Prozessen. Dazu bieten sie eine anwenderfreundliche, webbasierte Benutzerschnittstelle. So kann ein Anwender den gewünschten Ablauf mit wenigen Mausklicks zusammenstellen – ohne dass dafür eine aufwändige Schulung oder gar Programmierkenntnisse erforderlich wären. Die HR-Mitarbeiter selbst können die Prozesse gestalten, ohne dass zwingend IT-Unterstützung notwendig wird. Zudem sind bei Veränderungsbedarf auch nachträgliche Anpassungen jederzeit möglich, zum Beispiel wenn das Unternehmen einen neuen Geschäftsbereich eingeführt hat und dieser nun in den HR-Workflows zu berücksichtigen ist.

Alle HR-Prozesse abbildbar

Eingesetzt werden können Service Management Systeme für die unterschiedlichsten HR-Prozesse, sei es im Recruiting, beim Onboarding neuer Mitarbeiter, für die Abwicklung von Krankmeldungen, Urlaubsanträgen oder Reisekostenabrechnungen, wie für die Erstellung von Zwischenzeugnissen oder im Bereich der Mitarbeiterentwicklung. Durch die Automatisierung dieser Prozesse sinkt die Fehleranfälligkeit, Parallelstrukturen mit redundanter Leistungserbringung werden vermieden und die Abwicklungsgeschwindigkeit steigt genauso wie die Transparenz. Damit erhöht die HR-Abteilung nicht nur die Qualität ihrer Arbeit, sondern gewinnt zudem wertvolle Zeit, um sich als Business Partner mit innovativen Ideen im Unternehmen einzubringen und gezielt zur Wertschöpfung beizutragen.

Alle Interessierten, die mehr zum Thema wissen möchten, können sich am 18. Mai 2017 von 10:00 – 11:00 Uhr in einem kostenlosen Premium-Webinar informieren. Zur Registrierung geht’s hier: http://ow.ly/OMB630aL8GR

Die digitale Transformation erfordert eine neue IT-Organisation

Dominik Neumann, Vice President Digital Transformation bei CGI in Stuttgart, schreibt in seinem Gastbeitrag darüber, dass bimodale IT erst der Anfang für die erfolgreiche digitale Transformation ist.

Die Informationstechnologie ist die treibende Kraft bei der Digitalen Transformation, die für fast alle Unternehmen eine beachtliche Herausforderung ist. Besonders davon betroffen sind die IT-Abteilungen. Bei ihnen ist eine grundlegende Neuausrichtung erforderlich.

Bislang folgen die meisten IT-Organisationen einem der beiden Paradigmen „Plan-Build-Run“ oder mit verkürzter IT-Wertschöpfungskette „Source-Make-Deliver“. Egal ob beim Planen, Erstellen und Betreiben oder beim Beschaffen, Zusammenbauen und Ausliefern einer Lösung folgt die IT immer einem Service-zentrierten Ansatz. Innovation ist auf die Effizienzsteigerung des IT-Service ausgerichtet, das bedeutet, fest definierte Services möglichst kostengünstig zu erbringen. Vielfach ist die IT aktuell weit weg vom Business sowie der Umsetzungsgeschwindigkeit und Flexibilität, wie sie die Fachabteilungen heute benötigen.

Bimodale IT bietet einen Einstieg zur Beherrschung der stetig steigenden Komplexität. Mode 1 folgt den Prinzipien von Best Practices und Mode 2 den emergenten, dynamischen Praktiken. (Quelle: David Snowden: A Leaders Framework for Decision Making, HBR 11/2007)

Bimodale IT bietet einen Einstieg zur Beherrschung der stetig steigenden Komplexität. Mode 1 folgt den Prinzipien von Best Practices und Mode 2 den emergenten, dynamischen Praktiken. (Quelle: David Snowden: A Leaders Framework for Decision Making, HBR 11/2007)

In der Zwischenzeit hat in den IT-Abteilungen ein Umdenken eingesetzt und die IT entwickelt sich vom Supporter zum Enabler hin zum Driver des Business. Als Supporter gehörte das Unterstützen und Optimieren der Geschäftsprozesse zur Kernaufgabe der IT-Abteilung. In der neuen Rolle der IT als Driver tritt jedoch viel stärker der CDO in Aktion: Er erwartet von der IT, dass sie als Mitstreiter auf dem Weg zu neuen digitalen Geschäftsmodellen agiert.
Damit die IT in ihrer neuen Rolle erfolgreich sein kann, ist es nun die Aufgabe des CIO die IT-Organisation umzubauen. Laut der CGI Umfrage Global 1000 steht der CIO in der Regel vor drei großen Herausforderungen:

  • Hoher Kostendruck: Um den Umbau der IT zu finanzieren, muss die IT zunächst Einsparpotenziale identifizieren, denn selten ist zusätzliches Budget vorhanden, das für den Umbau dringend benötig wird. Zudem steht das operative Business in vielen Branchen unter erheblichem Kostendruck, der sich fast immer auch auf die IT auswirkt.
  • Time-to-Market: Features müssen immer schneller zu den Kunden kommen. Amazon, Netflix und Co. machen vor, wie täglich neue Funktionalität live geschaltet werden kann. Diesem Druck kann die klassisch aufgestellte IT aufgrund starrer Organisationen und veralteter Softwarelandschaften oft nicht standhalten.
  • Beharrungskräfte verhindern den Umbau: Insbesondere im mittleren Management sind die Beharrungskräfte groß und die Veränderungsbereitschaft, sich auf eine neue Unternehmens- und Führungskultur einzulassen, gering.
„Letztendlich darf es nur eine IT mit einer Geschwindigkeit geben, die agil und flexibel ist“, betont Dominik Neumann von CGI Deutschland.

Dominik Neumann ist Vice President Digital Transformation bei CGI in Stuttgart.

Um diesen Herausforderungen der Digitalen Transformation zu begegnen, wird dazu geraten, die IT zunächst bimodal aufzustellen. Gemeint ist damit die Koexistenz zweier kohärenter IT-Arbeitsweisen. Im Mode 1 befasst sich die IT mit den langfristig stabilen, selten geänderten und in ihrem Verhalten vorhersehbaren Kernsystemen. Im Mode 2 arbeitet sie mit experimentellen und agilen Vorgehensweisen und konzentriert sich auf Applikationen an der Kundenschnittstelle: eine IT der zwei Geschwindigkeiten sozusagen.
Damit werden Konzepte aufgegriffen, die davon ausgehen, dass Managemententscheidungen entweder unter Sicherheit oder unter Unsicherheit getroffen werden. Daher werden auch in der IT zwei Modi benötigt – einerseits für die planbare und andererseits für die komplexe und explorative Welt, die nur durch Versuch und Irrtum erschlossen werden kann. In der komplexen Welt kommen neben Ansätzen zur agilen Softwareentwicklung zusätzlich DevOps-Verfahren zum Einsatz. DevOps bedeutet auch: Die IT arbeitet nicht mehr Projekt- und Aktivitäten-bezogen, sondern Produkt- und Ergebnis-bezogen. Ein Team ist damit für den gesamten IT-Lebens- und -Wertschöpfungszyklus einer Lösung verantwortlich – nach dem Motto „You Build It, You Run It“. Die Einführung einer bimodalen IT ist der erste Schritt auf dem Weg zur Umgestaltung der IT-Organisation.

Die IT muss schneller werden

Eine bimodale Organisation der IT greift die Anforderung auf, dass die IT bei der Umsetzung neuer Aufträge schneller werden muss – und dies ohne Abstriche bei der Qualität. Je näher die IT-Systeme am Endkunden ausgerichtet sind und je mehr Berührungspunkte der Endkunde durch IT-Systeme mit dem Unternehmen hat, desto größer werden die Anforderungen an eine schnelle Anpassbarkeit.

Zusätzlich zu einem bimodalen Ansatz ist die Unterscheidung zwischen Systems of Records (SoR) und Systems of Engagements (SoE) verbreitet. Die stabilen Systeme sind die transaktionalen Legacy-Systeme als SoR im Backoffice, die in der Regel mit vierteljährlichen oder halbjährlichen Releasezyklen geplant werden. Die agilen sind die kundenzentrierten SoE; hier finden sich alle Applikationen mit den Kundenkontaktpunkten.

Aktuell gibt es eine nachvollziehbare enge Kopplung zwischen SoR und SoE und diese bremst die IT aus. Will eine IT-Organisation flexibler agieren, müssen beide besser voneinander entkoppelt werden. Da SoR und SoE fachlich auch weiterhin miteinander verzahnt sind, können sie nur technisch getrennt werden. Vereinfacht ausgedrückt besteht die Lösung darin, dass zwischen den SoR und den SoE eine asynchrone auf Events basierende intelligente „Entkopplungsschicht“ eingezogen wird.

Komplexität in den Systems of Records verringern

Dazu bedarf es einiger Vorarbeiten bei den langjährig im Einsatz befindlichen betriebswirtschaftlichen Applikationen. Unternehmen haben diese Standardsoftware um individuelle Funktionalitäten und zusätzliche eigenentwickelte Lösungen erweitert, mit denen sie sich vom Wettbewerb differenzieren. Als Folge entstanden monolithische sowie oft nur noch aufwendig und langwierig zu wartende IT-Systemlandschaften.

Systems of Records und Systems of Engagement sind über einen synchronen API- und einen asynchronen Services Layer lose miteinander gekoppelt. (Quelle: CGI)

Systems of Records und Systems of Engagement sind über einen synchronen API- und einen asynchronen Services Layer lose miteinander gekoppelt. (Quelle: CGI)

Um schneller und flexibler agieren zu können, sollten Unternehmen dazu übergehen, die ursprünglich auf Anforderungen der Fachbereiche erstellten individuellen Funktionalitäten so weit möglich in Microservices zu überführen und sie in einem Services Layer unterzubringen. Anschließend können die Microservices – entkoppelt von den Standard-Applikationen – schnell und problemlos weiterentwickelt werden. Die konsequente „Entschlackung“ der betriebswirtschaftlichen Applikationen und damit der SoR führt zu einer deutlichen Reduktion der Komplexität und ebnet den Weg zur Standardisierung der IT-Infrastruktur. Der entscheidende Punkt dabei: In den fachlich definierten Microservices steckt das eigentliche Know-how der Unternehmen, mit dem sie ihre direkte Wertschöpfung erzielen.

Die IT sinnvoll verschlanken und Kosten vermeiden

Konsequent umgesetzt enthalten Microservices die eigentlichen Business Capabilities, die die Wettbewerbsfähigkeit eines Unternehmens ausmachen. Das bedeutet auch, dass die in den SoR verbliebenen, nicht wertschöpfenden Standardanwendungen so weit wie möglich ausgelagert werden können. CGI spricht hier vom Transformational Outsourcing.
Bei den wettbewerbsrelevanten Services sollten Unternehmen nach agilen Methoden vorgehen, eine eigene Softwareentwicklung betreiben und damit die Fertigungstiefe erhöhen. Die Entwickler konzentrieren sich in DevOps-Teams vollständig auf die Business Capabilities, mit denen sie die Wettbewerbsfähigkeit des Unternehmens sicherstellen und weiter ausbauen.

Business-Capability-fokussierte Teams sind  “Think-it-Build-it-Run-it”-Teams.

Business-Capability-fokussierte Teams sind “Think-it-Build-it-Run-it”-Teams.

Während sich aus der alten „Build“-IT eine agile und flexible IT mit hoher Fertigungstiefe entwickelt, entsteht aus der „Run“-IT das Cloud-Services-Management. Bis zu 90% der IT-Systeme werden in Private- und Public-Cloud-Umgebungen verlagert. Damit verlagert sich auch die Kompetenz und Verantwortung der „Run“-IT weg vom Betreiben eines eigenen On-Premise-Rechenzentrums hin zum Management der hybriden Cloud-Umgebungen: Dabei geht es um Vertragsmanagement, Monitoring der vereinbarten SLA, Consulting zur Auswahl passender Cloud-Umgebungen sowie um Belange wie Cyber- & Information-Security, Governance und Compliance.

 

Business und IT verschmelzen in neuen Wertschöpfungsnetzen

Mittelfristig wird die IT grundlegend umgebaut. Für die geschäftskritischen IT-Funktionalitäten gibt es Produkt-orientierte innovative Teams, die sich um eine schnelle Weiterentwicklung kümmern. Sie können flexibel auf geänderte Markt- und Kundenanforderungen reagieren und zusammen mit der Fachabteilung, in der sie organisatorisch angesiedelt werden, innerhalb kurzer Zeit neue Produkte und Services auf den Markt bringen. IT entsteht in Zukunft da, wo sie gebraucht und eingesetzt wird. Das ist Business-IT-Alignment in Reinkultur.

In Produkten anstatt in Projekten denken.

In Produkten anstatt in Projekten denken.

Neue Geschäftsmodelle brechen klassische Geschäftsprozesse auf. Damit verändert sich im Verlauf der Digitalen Transformation das Business deutlich. Mittelfristig werden die IT-Teams zusammen mit den Fachabteilungen in Einklang mit dem Business neu zusammengesetzt. Bei der Umsetzung der Digitalen Transformation und der Implementierung neuer Geschäftsprozesse und -modelle gewinnen die Fachabteilungen an Gewicht. Wenn die IT Produkt-orientiert aufgestellt ist und Unternehmen im idealen Fall alle nicht direkt die Wettbewerbsfähigkeit betreffenden und fördernden Applikation ausgelagert sind, wird die IT zunehmend mit den Fachabteilungen verschmelzen. Damit existiert dann auch eine völlig neue IT. Das Ziel dabei ist, dass eine dezentrale IT dann zu einem essenziellen Teil neuer Wertschöpfungsnetzwerke wird.

Weitere Informationen unter:
www.cgi.com

New Work & Arbeiten 4.0

Neue Arbeits- und Führungskultur im Zeitalter der digitalen Wirtschaft

Auch wenn das Kürzel „4.0“ erst einmal suggeriert, die Veränderungen in der Arbeitswelt würden vor allem durch die Digitalisierung vorangetrieben, verbirgt sich viel mehr dahinter: Es sind auch die gesellschaftlichen Trends Globalisierung, demografischer Wandel, Bildung und Migration, die schon heute unsere Arbeit beeinflussen und erst recht unsere zukünftige beeinflussen werden. So verwundert es nicht, dass beispielsweise schon 2015 in einer von der Telekom und der Universität St. Gallen veröffentlichen Studie nicht ohne Hintergedanken von Revolution gesprochen wurde – damals noch fokussiert auf Industrie 4.0: Nach der Einführung mechanischer Produktionsanlagen mithilfe von Wasser- und Dampfkraft, der arbeitsteiligen Massenproduktion mithilfe von elektrischer Energie und dem Einsatz von Robotik und IT zur weiteren Automatisierung der Produktion nun also die vierte industrielle Revolution mit dem Einsatz von cyberphysischen Systemen. Bundesministerin Andrea Nahles schreibt im Vorwort des im November 2016 von ihrem Ministerium herausgegebenen Weißbuchs „Arbeiten 4.0“, dass die Hauptfigur des Wandels zwar die Digitalisierung sein mag, Arbeiten 4.0 ist aber „vielmehr ein Kürzel für die Veränderungen in der gesamten Arbeitswelt und ihre Folgen für die Gesellschaft“. Schwer fällt es allerdings, den Begriff Arbeiten 4.0 aus der Schwammigkeit zu holen.

Dies liegt sicher auch daran, dass wir uns noch am Anfang der Umwälzungen befinden, an Veränderungen von Geschäftsmodellen, von Prozessen und Strukturen und von gesellschaftlichen Themenfeldern, wie es Prof. Dr. Jutta Rump, Direktorin des Instituts für Beschäftigung und Employability, erklärt: Es gibt die technologische und ökonomische Komponente in dem Thema, die mit den Themen Demografie und Nachwuchs zu kombinieren sind. Und all das werde dann noch vor den gesellschaftlichen Trends wie Nachhaltigkeit, Individualisierung, Vielfalt und Polarisierung sowie der Work-Life-Balance gespiegelt. Ein solches Gebilde ist an Komplexität wohl kaum zu toppen. Zumal, wie Nahles schreibt: „Arbeiten 4.0 beschreibt dabei nicht die heutige Normalität, sondern Perspektiven, Szenarien und Gestaltungschancen für die Zukunft – für eine Arbeit, die den Menschen nützt und unsere Wirtschaft voranbringt.“

Trendbegriff  VUCA

Das Akronym VUCA be­schreibt effizient die geänderten Rahmenbedingungen für Unternehmen und Mitarbeiter im Kontext der Digitalisierung: Volatilität (Volatility) = Unberechenbarkeit und Unbeständigkeit; Unsicherheit (Uncertainty) = Unsicherheit und Ungewissheit. Komplexität (Complexity) = komplexe Systeme „Mehrebenensysteme“, Ambivalenz (Ambiguity) = Mehrdeutigkeit z.B. bei Situationsbewertungen https://trendreport.de/vuca

Doch weisen diese Entwicklungen tatsächlich alle in Richtung eines Nutzens für den Menschen? Die Ministerin selbst muss immerhin anerkennen, dass die digitale Transformation polarisiert: „Für die einen ist sie Verheißung und Lebensgefühl, für die anderen bedeutet sie Unsicherheit.“ Und könnten nicht manche der derzeit stattfindenden politischen Ereignisse Folge dieser Polarisierungen sein, ein Ausdruck von Zukunftsangst, die Sorge, abgehängt zu werden, und das lähmende Gefühl, die Entwicklungen nicht mehr zu verstehen? Aussagen wie jene von Telekom-Personalvorstand Christian P. Illek, der ausführt, dass es nach Prognosen im Jahr 2020 Milliarden Roboter auf der Erde geben wird – mehr als Menschen. Vielen wird bei solchen Aussagen mulmig werden. Und wenn Studien verkündigen, dass 20,5 Millionen Jobs in Deutschland der Automatisierung zum Opfer fallen könnten – und davon sind nicht nur einfache Tätigkeiten betroffen – ist das auch nicht jedermanns Wunschvision. Immerhin geht das Institut für Arbeitsmarkt- und Berufsforschung davon aus, dass im Kontext der Transformation wegfallende Stellen in adäquater Anzahl wieder neu geschaffen werden.

Peter H. Feldmann, Ergonomie-Spezialist: „Kaum ein Unternehmen will gesund­heitsförderliche Einrichtungen nur für bereits ‚geschädigte‘ Mitarbeiter einkau­fen; sondern die Unternehmen wollen von vornherein präventiv vorgehen.“

Peter H. Feldmann, Ergonomie-Spezialist: „Kaum ein Unternehmen will gesund­heitsförderliche Einrichtungen nur für bereits ‚geschädigte‘ Mitarbeiter einkau­fen; sondern die Unternehmen wollen von vornherein präventiv vorgehen.“

Doch Unsicherheit wird bei einigen bleiben, zumal die Komplexität nur noch schwer beziehungsweise kaum verständlich und nachvollziehbar vermittelbar ist. Auch Arbeitsexpertin Jutta Rump benennt die Schwierigkeit, die Komplexität von Arbeit 4.0 in der Außenkommunikation sichtbar zu machen. Und laut Andrea Nahles müsse gezeigt werden, „wo die Chancen liegen und dass wir es in unserer Hand haben, in welche Richtung sich die Dinge entwickeln.“ Mit dieser positiven Einstellung auf die Entwicklungen dürfte man wahrscheinlich tatsächlich am besten fahren, denn klar und unbestreitbar ist: Der Wandel hat uns alle längst erfasst – sowohl im Privat- als auch im Berufsleben. Neue Möglichkeiten in der Kommunikation führen zu neuen Formen der Kollaboration, der Zugang zu Wissen ist vereinfacht, mobile Technologien führen zu ortsungebundenem Arbeiten, das, wie Rump mit ihrer Kollegin Silke Eilers im Buch „Auf dem Weg zur Arbeit 4.0“ schreibt, „zu weitreichenden Veränderungen im Arbeits- und Unternehmensalltag und zu einer Vielfalt an neuen Arbeitsmodellen führt.“

Ein Beispiel: Im Bereich der Softwareentwicklung wird die Grenze zwischen Fachbereichen und IT nach der Darstellung von Sebastian Ley, Associate Director bei Platinion, zunehmend verschwimmen. Digitalisierung bedeute hierbei, dass IT nicht mehr nur ein Enabler des Geschäfts ist, sondern ein integraler Bestandteil der Wertschöpfung wird. „Dadurch verändern sich die organisatorischen Zuordnungen und Rollenbeschreibungen.“
Einen großen Einfluss auf das Arbeiten in der Zukunft werden nach seiner Einschätzung zudem die Weiterentwicklungen im Bereich der Künstlichen Intelligenz ausüben. „Sie wird in Konkurrenz mit vielen klassischen Berufsbildern treten, die sich einer klassischen algorithmischen Automatisierung entziehen“, sagt er.

HANDBUCH DIGITALISIERUNG

Open-Content-Redaktionskonzept: Seit Januar 2017 ist das erste gemeinfreie Werk als Fachbuch und Wegweiser für Unternehmen zum Thema Digitalisierung am deutschen Markt erschienen. Das Handbuch geht mit einer Creative-Commons-Lizenz und einer lebendigen Autoren-Community an den Start. Der stets aktuelle Begleiter für den digitalen Wandel.
www.handbuch-digitalisierung.de

Arbeiten 4.0: Ein langer Weg?

Doch wenn Andrea Nahles schreibt, wir hätten die Zukunft in unserer Hand, dann beinhaltet dies auch, den Weg gemeinsam zu gehen – mit allen. Dies gilt auch für die Unternehmen. Dabei kann sicher die Aussage von Daniel Hartert, Head of Business Services und CIO der Bayer Group, herangezogen werden: „Technology is the easy part. The hard part is change.“ Professorin Ursula Männle, Vorsitzende der Hanns-Seidel-Stiftung, fordert: „Trotz gesellschaftlicher Veränderungen müssen die Menschen im Mittelpunkt der Betrachtung bleiben. Werte wie Verantwortung, Vertrauen und Solidarität müssen weiterhin auch in der Arbeitswelt eine große Bedeutung haben.“ Sicher hat sie recht damit. Bleibt alleine die Frage nach dem Erfolg vertrauensaufbauender Maßnahmen – macht der digitale Wandel laut einer Untersuchung von Sopra Steria Consulting, die sich mit dem Phänomen der digitalen Überforderung im Arbeitsleben auseinandersetzt, doch 17 Prozent aller Beschäftigten in deutschen Unternehmen Angst. 20 Prozent der Studienteilnehmer graut es demnach sogar vor der Einführung neuer Digitaltechnologien. Wobei diese Haltung laut den Ergebnissen unter Führungskräften mit 22 Prozent überdurchschnittlich häufig anzutreffen ist. Thomas Sattelberger, Sprecher der Themenbotschafter der Initiative „Neue Qualität der Arbeit“ sagte einst in diesem Magazin: „In unsicheren Zeiten Sicherheit zu vermitteln, ist paradox. ‚Wir müssen alle mitnehmen.‘ – Das ist ein Satz zur Kosmetik. Man kann es versuchen, aber wir wissen, dass das schon in der Vergangenheit nicht geglückt ist.“

Auch wenn nicht alle mitgenommen werden können, sollten es doch so viele wie möglich sein. Und so landet auch nach dem von Hays veröffentlichten „HR-Report 2017“ die Vorbereitung der Mitarbeiter auf die digitale Transformation mit 34 Prozent auf Rang zwei der wichtigsten HR-Themen beziehungsweise Handlungsfelder. Übertrumpft wird das Thema nur von der mit der digitalen Transformation eng zusammenhängenden Flexibilisierung der Arbeitsstrukturen mit 39 Prozent. An dritter Stelle, auch dies ein Thema, das eng mit der digitalen Transformation verbunden ist, folgt mit 32 Prozent die Weiterentwicklung der Unternehmenskultur. Dieses letztgenannte Thema kann sicher eine Menge zu den von Ursula Männle geforderten Attributen beitragen. Wobei bei einem Wandel hin zu einem anvisierten Ziel für manches Unternehmen an erster Stelle die Frage stehen kann: Wer sind wir überhaupt? Das auf Unternehmenskulturen spezialisierte Unternehmen Company Match hat dafür zum Beispiel einen mit Marktforschern und Markenstrategen sowie auf wissenschaftlichen Arbeiten basierenden „Company Match Ambassador Survey“ entwickelt.

Mithilfe einer Online-Mitarbeiterbefragung wird dabei eine Analyse und Definition der Unternehmenskultur erstellt. Laut Bjorn Veenstra, CEO des Unternehmens, hilft dies zum einen dabei, den Ist-Zustand zu identifizieren, zum anderen bei der Mitarbeitersuche. Er sagt: „In erster Linie ist es wichtig, dass sich der Arbeitgeber seiner eigenen Kultur bewusst ist. Nur wenn ein authentisches Bild der eigenen Unternehmenskultur besteht, kann auch der Cultural Fit mit potentiellen Mitarbeitern bestimmt werden.“

Demokratie & Agilität

Eine weitere Antwort auf Ursula Männles Forderungen könnten die eng an die Unternehmenskultur im Zeitalter der Arbeit 4.0 geknüpften Begriffe demokratisches Unternehmen und Mitbestimmung sein. Genauso Agilität. Thomas Sattelberger sieht das immaterielle Kapital der Unternehmen in der heutigen Wissensgesellschaft in den Köpfen der dort arbeitenden Menschen. Dazu gehören der Erfahrungsschatz, die Kreativität und die Innovationsfähigkeit. Somit habe die „Zusammenarbeit auf Augenhöhe“ heute auch eine sehr viel höhere Bedeutung als noch vor zehn oder 15 Jahren. Er führte daher den Begriff „Unternehmensbürger“ ein. Mit ihm soll zum Ausdruck kommen, dass Unabhängigkeit und Souveränität Merkmale der arbeitenden Menschen sind. Die damit einhergehende Individualität wird zu einer Verschiebung der Macht in den Unternehmen führen: Es wird nicht mehr nur das engmaschige Netz des Managements und der Sozialpartnerschaft bestehen, als weiterer Spieler wird nach Sattelbergers Ausführungen das Individuum dazukommen. Und der Experte für Arbeit fügt an: „Je individuumsbezogener ein Unternehmen sich entwickelt, umso attraktiver präsentiert es sich auf dem von Diversität geprägten Talentmarkt.“ Wichtig sei aber immer, dass Flexibilität und Selbstverantwortung mit klaren Spielregeln verknüpft seien – auch, um Ausbeutung der Mitarbeiter zu verhindern.

Doch wie kompliziert es ist, auf dem von Sattelberger erwähnten Talentmarkt erfolgreich zu sein, erklärt Prof. Dr. Isabell M. Welpe, Professorin an der Technischen Universität München für Betriebswirtschaftslehre, Strategie und Organisation: „Die Fähigkeit die besten Talente nicht nur in den angestammten Fächern, sondern auch in neuen Fächern, wie beispielsweise Künst­licher Intelligenz, mobilen Technologien, Cloud-Computing, Com­puter­wis­sen­schaften zu gewinnen, ist eine hochstra­tegische Herausforderung, die mit der Innovationsfähigkeit der Unternehmen eng verknüpft ist.“ Dies sei insbesondere des­halb so wichtig, weil aus empirischen Studien bekannt sei, dass Toptalente drei- bis zehnmal so produktiv seien wie durchschnittliche Talente. Insbesondere agile Fähigkeiten von Mitarbeitern und die Fähigkeit mit großen Datenmengen umzugehen, seien entscheidend“, so die Wissenschaftlerin.

Die Top-HR-Handlungsfelder: Die Grafik spezifiziert die wichtigsten Themen im Zeitverlauf. Quelle: Quelle: Hays HR-REPORT 2017, Schwerpunkt Komptenzen für eine digitale Welt

Die Top-HR-Handlungsfelder: Die Grafik spezifiziert die wichtigsten Themen im Zeitverlauf. Quelle: Quelle: Hays HR-REPORT 2017, Schwerpunkt Komptenzen für eine digitale Welt

Doch warum ist Agilität so wichtig? „Eine der wichtigsten Fähigkeiten in diesen Zeiten scheint die Fähigkeit von Firmen zu sein, sich anzupassen, an die Veränderungen, die durch neue Technologien und damit einhergehende veränderte Kundenbedürfnisse entstehen“, antwortet Welpe unter anderem. Das geht dahin, dass manche Unternehmen agile Teamstrukturen zulassen in denen Projektteams selbstbestimmt und mit viel Vertrauen ausgestattet, arbeiten. „Agilität im großen Maßstab geht nur mit Vertrauen in großem Maßstab“, sagt Welpe. Wobei es kein blindes Vertrauen sein sollte, sondern eines, das gerechtfertigt sei.

Auch beim jährlichen Branchentreff der Projektmanagement-Entscheider der TIBA Managementberatung GmbH ging es in diesem Jahr um das brandaktuelle Thema Projektmanagement 4.0. Dabei spannten namhafte Referenten renommierter deutscher und internationaler Unternehmen einen Bogen von aktuellen Entwicklungen im traditionellen Projektmanagement über agile Methoden bis hin zu einer Roadmap zum Start ihres Projektes „Digitalisierung“. Zu den Highlights gehörten Dr. Auma Obama, Mitglied des Weltzukunftsrats und Schwester des ehemaligen US-Präsidenten Barack Obama, Tim Cole, Erfolgsautor und Internet-Publizist, Christoph Burkhardt, einziger Innovation-Psychologist der Welt und Best-Practice-Vorträge namhafter Unternehmer. Heraus kam dabei unter anderem, dass in Projekten zum einen die zunehmende Komplexität gemanagt werden muss, zum anderen verlangt Vernetzung schnelle und dezentrale Entscheidungen an den fachlich verantwortlichen Schnittstellen. „Dafür gibt es nicht die eine Methode, manchmal braucht es auch den hybriden Ansatz zwischen klassischem Projektmanagement und agilen Methoden – ein Projektmanagement 4.0, auch ‚adaptives Projektmanagement‘“, betont Till H. Balser, Geschäftsführer der TIBA Managementberatung GmbH.

Coachen, lernen, weiterbilden

Auch Arbeits-Expertin Jutta Rump schränkt insgesamt etwas ein: „Wir werden in Zukunft agilere Organisationen haben, wir werden auch in Unternehmen agile Einheiten haben, die wirklich extrem agil und extrem partizipativ und sehr demokratisch agieren werden. Es wird aber genauso gut in den gleichen Unternehmen die Hierarchie geben.“ Hier gelte es auszubalancieren, denn Regeln brauche es immer – und seien es Kommunikations- und Kooperationsregeln. Aufgrund der sich schnell verändernden Umfelder, der oft noch jungen Methoden kommt der Weiterbildung von Mitarbeitern eine ganz entscheidende und wettbewerbserhaltende Rolle zu. „Design-Thinking, Scrum und Kanban zählen aktuell sicher zu den Spitzenreitern, wenn es um agile Ansätze geht“, sagt Christian Konz, Produktmanager, Trainer und Berater sowie Agile Coach bei der auf Weiterbildung und Software spezialisierten ibo Beratung und Training GmbH. Wobei zu beachten sei, dass diese Ansätze und Methoden völlig unterschiedliche Fragestellungen adressieren und auf unterschiedlichen organisatorischen Ebenen zusammenspielen. Prinzipiell müsse daher, so Konz‘ Kollegin Eleonora Weistroffer, eindeutig beantwortet werden, wozu und warum es überhaupt sinnvoll sei, klassische Bereichs- und Teamstrukturen in agile und sich selbststeuernde Teams zu transformieren. „Dafür muss das Topmanagement gewonnen werden“, erklärt sie. Dann gelte es, das Zielbild klar zu definieren und auch die Folgen einer solchen Transformation für jeden einzelnen hinzuweisen. „Die Digitalisierung verwirklichen“, „In Diversity investieren“, „Auf Führungskräfte der Generation Y hören“ und „In die Belegschaft investieren“ – all dies sind laut der vom Forschungsinstitut Oxford Economics erstellten Studie „Leaders 2020“, Verhaltensweisen von Managern, die in hervorragend geführten Unternehmen arbeiten. Und die vor dem Hintergrund unserer schnelllebigen Zeit mit ständigen Innovationen sowie technischen Neuerungen leben müssen. Die Forscher konnten dabei einen direkten Zusammenhang zwischen den oben aufgeführten Attributen und den umsatzstarken Unternehmen ausmachen – oder wie sie auch genannt werden: den „Digital Winners“.

Schnell wachsend und aufbauend auf einem digitalen Geschäftsmodell setzt der Matratzenhersteller Eve Sleep auf einen situativen Führungsstil. Derzeit wächst das E-Commerce-Start-up jeden Monat über 20 Prozent. Die Mitarbeiterzahl steigt. Alleine dieses Wachstum schon beinhaltet ständige Veränderungen und setzt Agilität voraus. „Mitarbeiter, die ein paar Monate dabei sind, bekommen Kollegen, für die sie verantwortlich sind und neue Aufgabenbereiche. Im Grunde ändert sich alle drei bis sechs Monate das Aufgabenprofil“, beschreibt Helmut Müller, Geschäftsführer für den deutschsprachigen Raum, die Situation. Hinzu kommt die internationale Vielfalt unter den Mitarbeitern: Deutsche, Engländer, Italiener, Franzosen, Schweizer, Amerikaner oder Belgier arbeiten in den Teams zusammen – mit unterschiedlichen Erfahrungsschätzen. In zwei Jahren will man die klare Nummer 1 Europas in dem Produktsegment sein.

Kompetenzen für eine digitale Welt: Beschäftigungseffekte durch die digitale Transformation; Quelle: Hays HR-REPORT 2017, Schwerpunkt Komptenzen für eine digitale Welt

Kompetenzen für eine digitale Welt: Beschäftigungseffekte durch die digitale Transformation; Quelle: Hays HR-REPORT 2017, Schwerpunkt Komptenzen für eine digitale Welt

Für Unternehmen, die sich nicht in die Kategorie der Start-ups einordnen, die Transformation aber erfolgreich mitgehen wollen, steht ein Change-Prozess an. „Ein professionelles Change-Management stellt den Dreh- und Angelpunkt einer erfolgreichen digitalen Transformation dar. Nur Unternehmen, die in der Lage sind, den angestrebten Wandel als umfassenden Prozess der Veränderung für das gesamte Unternehmen zu begreifen und zu gestalten, werden erfolgreich sein“, schreiben Ralf Kreutzer und Karl-Heinz Land im Buch „HR-Exzellenz“. Die Veränderungen können dabei auf der Ebene von organisatorischen Strukturen, von Prozessen, von Geschäftsfeldern und im gesamten Unternehmen stattfinden. Die Fähigkeit mitsamt den Möglichkeiten der Vernetzung – auch interkulturell und interdisziplinär – wird zu einem essenziellen Charakteristikum der digitalen Workspaces. Das Silodenken nach Abteilungen und Fähigkeiten löst sich somit auf. „Das hängt auch damit zusammen, dass der Kunde eine Dienstleistung aus einer Hand haben will“, wie Norbert Rotter, Vorstandsvorsitzender der Itelligence AG, erklärt. Anders beziehungsweise schwieriger bei der Einführung der Vernetzung sei es seiner Meinung nach beispielsweise in der produzierenden Industrie. Während die Umsetzung den Dienstleistungsunternehmen leichter falle – bei Itelligence gebe es zum Beispiel schon lange flache Hierarchien und der Digital Spirit würde sich in der DNA des Unternehmens befinden – würden in anderen Branchen noch andere interne Abgrenzungen, Hierarchien und Kulturen existieren, die schwieriger zu durchbrechen seien.

Workspaces

„Mitarbeitermobilität – anywhere, anytime. ‚Bring your own device‘ oder flexible Arbeitszeiten“, werden von Khaled Chaar, Managing Director Business Strategy bei den Cloud-Pionieren der Cancom-Tochter Pironet Datacenter AG & Co. KG, als die entscheidenden Schlagworte für moderne Szenarien eines modernen Cloud-Arbeitsplatzes genannt. Gerade Unternehmen, die dezentral und in vielen vielleicht kleinen Niederlassungen organisiert seien, würden durch Cloud-Anwendungen ihre Flexibilität und Agilität erhalten – ganz abgesehen von dem Wegfall dezentraler IT-Kosten. All diese Veränderungen spiegeln sich inzwischen in immer mehr Arbeitsplätzen wider. Und auch hierbei bekommen Mitarbeiter bei der Gestaltung und Umsetzung Mitspracherechte. Bei der Fiducia & GAD IT AG haben sich beispielsweise die Mitarbeiter monatelang intensiv mit der Arbeitswelt und der eigenen Wahrnehmung des Unternehmens beschäftigt. In unterschiedlichsten Projekten konnten sie sich aktiv einbringen.

Ziel war es, für den „Future Workspace“ eine Kombination für die flexible Arbeitsorganisation mit technisch modernster Infrastruktur hinzubekommen. Jörg Staff, Arbeitsdirektor und Vorstand Personal, Facilities und Revision des Unternehmens, erklärt: „Viele unserer Mitarbeiter werden in Zukunft an allen Standorten losgelöst vom Schreibtisch im Büro und von zu Hause arbeiten, weil sie immer mehr Aufgaben digital erledigen können. Gleichzeitig erhalten sie mehr Freiraum für kreativen Austausch.“

Auch der Büromöbelhersteller König & Neurath hat längst auf das Arbeiten 4.0 und die damit zusammenhängenden neuen Büroanforderungen reagiert. Peter H. Feldmann, Ergonomie-Spezialist des hessischen Unternehmens, hat dabei neben der Digitalisierung mitsamt der Produktion 4.0 auch die Attraktivität der Arbeitsplätze als einen wichtigen Faktor ausgemacht. So teilen sich beispielsweise mehrere Mitarbeiter einen Büroschreibtisch, wofür es schnell individuell einstellbare Möbel braucht. Außerdem würden fast die Hälfte aller neuen Arbeitsplätze inzwischen als Steh-/Sitzlösungen verkauft, so der Experte. Er sagt: „Kaum ein Unternehmen will gesundheitsförderliche Einrichtungen nur für bereits ‚geschädigte‘ Mitarbeiter ein­kaufen, sondern die Unternehmen wol­len von vornherein präventiv vorgehen.“ Um die Mitarbeiter auch zur Nutzung derartiger Lösungen zu motivieren, wurde eine smarte, ergonomische Anwendung entwickelt, ein sogenanntes Smart-Office-Konzept.

Neues Open-Content-Buchprojekt

Handbuch HR-Management

Im Sommer / Herbst 2017 erscheint unser neues gemeinfreies Werk als Fachbuch und Wegweiser für HR-Verantwortliche und Unternehmen, die den Wandel in die Arbeitswelten 4.0 erfolgreich meistern wollen. Die TREND-REPORT-Redaktion hat sich mit dem Handbuch „HR-Management“ das Ziel gesetzt, die Digitalisierung und ihre Auswirkungen auf das Personalwesen zu beschreiben. Ziel ist es, zukünftige Arbeitsformen und Arbeitsverhältnisse in den Mittelpunkt des Open-Content-Werkes zu stellen.
In Form von Fallbeispielen und Interviews zeigt die Redaktion auf, wie der kulturelle und technische Wandel hin zur „Arbeit 4.0“ gemeistert werden kann.
Unternehmer und Führungskräfte erhalten durch das Fachbuch neue Lösungs- und Denkansätze, damit sie die anstehenden technischen und kulturellen Veränderungen im Personalwesen positiv für sich nutzen können.
Schreiben Sie mit?

www.handbuch-hr.de

Auf ergonomische Möbel setzt auch die Warsteiner-Gruppe. Überhaupt nimmt in dem Unternehmen das betriebliche Gesundheitsmanagement mit­samt einer Work-Life-Integration einen ganz entscheidenden Stellenwert bei der Gesundheitsförderung ein. Flexible Arbeitszeitmodelle und Home-Office-Regelungen unterstützen die Lebensplanungen gerade junger Mitarbeiter. Mit der TÜV-Zertifizierung DIN SPEC 91020 wurde ein Gesundheitsmanagement systematisiert und in die bestehenden Arbeitsprozesse eingebunden. Schulungen und Trainings runden das Angebot ab.

Ort der Begegnungen: Der Trend geht hin zu agilen Arbeitsgruppen, die ihre Arbeitszeit und ihren Arbeitsort flexibel und selbst gestalten können.

Ort der Begegnungen: Der Trend geht hin zu agilen Arbeitsgruppen, die ihre Arbeitszeit und ihren Arbeitsort flexibel und selbst gestalten können.

Doch es sind nicht gesundheitliche Aspekte und Desk-Sharing-Lösungen, die in Zeiten der Arbeit 4.0 mit der Entwicklung mithalten. Günter Osterhaus, Leiter Planung und Projektmanagement bei Assmann Büromöbel, erwähnt einen weiteren Trend, der die Kreativität und Selbstbestimmung unterstützen soll: Co-Working-Spaces, in denen Menschen aus verschiedenen Sparten an einem Thema oder auch vielen kleinen Themen zusammenarbeiten.

Der informelle Austausch, das kreative Miteinander und das nötige Umfeld sollen oftmals dazu beitragen, frei von allen Zwängen Neues zu denken. Osterhaus sagt: „Co-Working-Spaces sollen zwanglos, offen und in eine ansprechende Atmosphäre getaucht sein.“ Unkompliziert essen und trinken sei außerdem ein wichtiger Faktor, genauso wie die Möglichkeit, Freunde zu treffen. Und natürlich wären Highend-Technik und ein schnelles Internet perfekt. Nichtsdestotrotz hat natürlich auch Osterhaus‘ Unternehmen auf die Flexibilisierungswünsche der Kunden reagiert. So wurde in Kooperation mit dem Fraunhofer Institut für integrierte Systeme und Bauelementetechnologie ein Schreibtisch entwickelt, der sich komplett autark über einen Akku betreiben lässt. Dieser Stromspeicher versorgt moderne Endgeräte mittels USB3.1-Typ-C-Anschlüssen mit der jeweils benötigten Spannung.

Wissen ist da, die Umsetzung hakt

Bei all dieser Themenvielfalt im Zusammenhang mit Arbeit 4.0 und den damit zusammenhängenden Herausforderungen, gäbe es viel Handlungspotenzial. Doch am Erkennen von Potenzialen scheint es noch zu hapern. So gibt laut einer Bitkom-Befragung nur etwas mehr als jedes dritte Unternehmen an, die Digitalisierung habe mittleres oder großes Potenzial, um neue Geschäftsmodelle zu entwickeln. Daher fordert Bitkom-Hauptgeschäftsführer Dr. Bernhard Rohleder: „Unternehmen sollten bei der digitalen Transformation größer denken. Wer hervorragende Produkte herstellt, sollte überlegen, wie er sie mit wertvollen Dienstleistungen koppeln kann. Und wer bislang stark nachgefragte Dienstleistungen anbietet, der sollte schauen, ob er ein ganzes Ökosystem dazu aufbauen kann.“

Wem dies als Ansporn nicht reicht, der kann sich auch die Zahlen zu Gemüte führen, die Isabell M. Welpe nennt: „Fast 90 Prozent der Firmen, die 1955 unter den Fortune 500 gelistet waren, waren im Jahr 2014 nicht mehr auf dieser Liste. Und Prognosen gehen davon aus, dass in den nächsten zehn Jahren circa 40 Prozent der Firmen, die heute auf der Liste stehen, von dieser Liste verschwinden.“

von Christoph Berger

Anwendung des Machine Learning bei der Analyse von Kapitalmärkten

Fallstudienarbeit
Hochschule: Hochschule für Oekonomie & Management
Standort: Münster
Studiengang: Bachelor Wirtschaftsinformatik
Veranstaltung: Fallstudie / Wissenschaftliches Arbeiten
Betreuer: Prof._Dr._Uwe_Kern
Typ: Fallstudienarbeit
Themengebiet: Machine Learning
Autor(en): Tobias Waning, Alexander Brun, Hendrik von der Haar
Studienzeitmodell: Abendstudium
Semesterbezeichnung: SS16
Studiensemester: 2
Bearbeitungsstatus: begutachtet
Prüfungstermin: 6.6.2016
Abgabetermin: 5.6.2016

Inhaltsverzeichnis

[Verbergen]

  • 1 Einleitung
  • 2 Grundlagen
    • 2.1 Prozess des Machine Learnings
      • 2.1.1 Lernverfahren
      • 2.1.2 Lernansätze & Algorithmen
      • 2.1.3 Anwendungsgebiete
    • 2.2 Finanzmarkt
      • 2.2.1 Akteure des Finanzmarktes
      • 2.2.2 Definition des Kapitalmarktes
      • 2.2.3 Aufgaben-, Funktionen und Bereiche des Kapitalmarktes
    • 2.3 Machine Learning zur Prognose Finanzmarktspezifischer Daten
      • 2.3.1 Datenaufnahme und Vorverarbeitung
      • 2.3.2 Umgang mit den zu verarbeitenden Merkmalen
      • 2.3.3 Validierung der erhobenen Daten
    • 2.4 Analysetechniken
      • 2.4.1 Fundamentalanalyse
      • 2.4.2 Technische Analyse
  • 3 Anwendung des Machine Learning – Aktienkursprognosen
    • 3.1 Grundlage der zu lernenden Daten
    • 3.2 Erstellung lernfähiger Merkmale
      • 3.2.1 Chartdeskription
      • 3.2.2 Technische Indikatoren
      • 3.2.3 Metadaten
      • 3.2.4 Skalierung
    • 3.3 Merkmalsselektion
    • 3.4 Einteilung der Objekte in Klassen
    • 3.5 Klassifikation
    • 3.6 Ergebnisse
  • 4 Schlussbetrachtung
  • 5 Fußnoten
  • 6 Quellen- und Literaturverzeichnis
  • 7 Abkürzungsverzeichnis
  • 8 Tabellenverzeichnis
  • 9 Abbildungsverzeichnis

1 Einleitung

Seit den ersten wissenschaftlichen Abhandlungen über das Forschungsobjekt der künstlichen Intelligenz Ende der 50er Jahre gewinnt die Thematik zunehmend an Relevanz. KI wird mittlerweile in allen neueren Gebieten der Technik eingesetzt und in Hinblick auf effizientere Verwendungsweisen in den jeweiligen Einsatzgebieten kontinuierlich weiterentwickelt und optimiert. KI, als solche, stellt sich als ein komplexes Gebiet dar, welches einerseits »versucht […] Intelligenz zu verstehen«[1] und andererseits einen Beweis für das Verständnis entwickelt, »[…] indem es intelligente, technische Systeme erschafft«[1]. Aufgrund der Komplexität des Forschungsobjekts umfasst die KI gegenwärtig eine Vielzahl von unterschiedlichen Bereichen, deren Inhalte sich auf einem Spektrum zwischen allgemein (z.B. das Lernen und die Wahrnehmung) und hochspezialisiert (z.B. das Beweisen mathematischer Behauptungen) anordnen lassen. Fortschreitende Entwicklungen in Technik und Wissenschaft, welche ursprünglich einfache Tätigkeiten, zunehmend komplexer und abstrakter werden lassen, können heute nicht mehr ohne umfassende Analysen durchgeführt werden. Mit den Analysen hochkomplexer technischer Prozesse geht zudem häufig ein exponentiell steigendes Datenaufkommen einher. Dementsprechend basieren diese Analysen häufig auf einer Vielzahl an Faktoren. KI, insbesondere der Bereich des Machine Learning, bietet in diesem Zusammenhang eine Option auf Optimierung der Analysetätigkeiten.

Laut gängigen Definition stellt Machine Learning ein Lernprinzip dar bei dem Computersysteme durch Anwendung und Erforschung von Verfahren befähigt werden, selbstständig Wissen aufzunehmen und zu erweitern. Das Ziel dieser Verfahrensforschung ist es, ein vorhandenes Problem besser lösen zu können als vorher[2]. Maschinelle Lernverfahren ermöglichen es, im Gegensatz zu manueller Revision durch humanitäre Kapazitäten, komplexes Datenmaterial effizient zu verarbeiten. Ein anschauliches Beispiel im Hinblick auf die Optimierung von Analysetätigkeiten bietet der Finanzmarkt.

Das folgende Fallbeispiel dient in diesem Zusammenhang der näheren Erläuterung: Stellen Sie sich vor Sie sind eine Frau, Ende 40 und möchten nun einen Kreditantrag für Ihr Eigenheim stellen. Ihr Lebensgefährte hat ein unbefristetes Arbeitsverhältnis bei einem großen Maschinenhersteller und Sie arbeiten als Beamtin beim Finanzamt ihres Kreises. Diese Aspekte sollten ohne Probleme dafür sprechen, dass ihr Kreditantrag genehmigt wird und sie mit dem Bauvorhaben ihres Eigenheims ohne Umwege starten können. Nach den ersten Gesprächen mit Ihrem Berater bei der Bank, welcher Zuversichtlich hinsichtlich der Genehmigung des Kreditantrags ist, sollte dem Konzept des Eigenheims kein Hindernis mehr im Weg stehen. Einige Tage später bekommen sie jedoch eine Mitteilung von der Bank in der ihr Kreditantrag abgelehnt wurde. Noch im gleichen Zug nehmen Sie Kontakt zu Ihrem Berater bei der Bank auf, welcher sich diese Entscheidung auch nicht erklären kann[3]. Dieses Fallbeispiel zeigt eine fiktive Situation auf, bei der jedoch nicht Menschen die Entscheidung getroffen haben, den Kreditantrag abzulehnen, sondern Maschinen. Alle Kriterien des Kreditantrags werden hierbei mit Risikofaktoren und Mustern anderer Kreditnehmer verglichen, um einen möglichen Kreditausfall zu prognostizieren. Um solche verschiedenen Muster und Risikofaktoren zu erkennen und vergleichen zu können, gibt es verschiedene Lernansätze und -verfahren.

Die vorliegende Arbeit thematisiert diese Lernansätze und -verfahren im Bezug auf das Machine Learning, als eine Unterkategorie der KI. Im Hinblick auf die ausgehende These soll diskutiert und exemplarisch dargestellt werden, inwiefern sich maschinelle Lernverfahren zur Prognose finanzmarktspezifischer Daten eignen. Die Arbeit gliedert sich dabei in vier Hauptkapitel. Das erste Hauptkapitel dient dabei der Einführung in die Thematik des Machine Learning und skizziert die allgemeinen Prozesse im Hinblick auf die Lernstrategien, Lernmethoden und Anwendungsbereiche. Anschließend erfolgt eine Darstellung der möglichen, durch das Machine Learning zu analysierenden, Bereiche des Finanzmarktes. Ausgehend von diesen Darstellungen ergibt sich die Frage, inwiefern das Machine Learning für die Prognose finanzmarktspezifischer Daten eingesetzt werden kann, welche abschließend diskutiert wird.

Das zweite Hauptkapitel beschreibt den Einsatz des Machine Learning zur Prognose finanzmarktspezifischer Daten. Es soll Aufschluss darüber geben, ob das Machine Learning als solches erfolgreich auf dem Aktienmarkt eingesetzt werden kann. Um diese Aussage treffen zu können, werden die verschiedenen Prozesse des Machine Learning hinsichtlich der Analysefähigkeit im Bezug auf Finanzdaten überprüft. Der Prozess des Machine Learning unterteilt sich dabei in fünf unterschiedliche Verarbeitungsstufen: Datenerhebung und Vorverarbeitung, Erstellung lernfähiger Merkmale, Merkmalsselektion sowie der Klassifikation[4].

Die Ergebnisse sowie abschließende Diskussionen bezüglich der Verwendbarkeit von maschinellen Lernverfahren auf dem Kapitalmarkt werden im vierten Kapitel erörtert. Dabei wird eine umfassende Schlussbetrachtung angeführt, die Aufschluss darüber geben soll, inwiefern das Machine Learning auf dem Aktienmarkt verwendet werden kann.

2 Grundlagen

2.1 Prozess des Machine Learnings

2.1.1 Lernverfahren

Abbildung 2.1: Die drei Säulen des Lernens

Abbildung 2.1: Die drei Säulen des Lernens

Die lernende Maschine soll auf möglichst effiziente Weise und ohne gravierende Abweichungen die ihr übermittelten Daten klassifizieren. Folglich müssen alle relevanten Merkmale selektiert und berücksichtigt werden, um die relevanten Daten klassifizieren zu können. Es existieren insgesamt drei verschiedene Verfahrensweisen, um die vorhandenen Daten zu annektieren. Gemäß Keller (2000) ist zwischen überwachtem Lernen (Supervised Learning) und nicht-überwachtem Lernen (Unsupervised Learning) zu unterscheiden[5].

Im Unterschied zu der Lernmethode des nicht-überwachten Lernens werden bei dem überwachten Lernen keinerlei Schlussfolgerungen durch die Maschine selbst getroffen. Dies bedeutet, dass die kognitive Anstrengung bei dem Prozess des Selektierens seitens des Lehrers (z.B. des Programmierers) erfolgt[6].

Im Gegensatz zum Supervised Learning werden bei der oben bereits erwähnten Methode des nicht-überwachten Lernens selbst neue Theorien durch die Maschine konzipiert. Damit dieses System durch Experimente und Beobachtungen strukturiertes und verwendbares Wissen erhält, müssen eine erhebliche Anzahl von Schlussfolgerungen durchgeführt werden[7].

Laut Stuart Russel und Peter Norvig (2012) existieren nicht nur die zwei elementaren Lernmethoden überwachtes bzw. nicht-überwachtes Lernen, sondern ebenfalls das sogenannte Reinforcement Learning (verstärkendes Lernen). Bei dieser Methode erhält die zu lernende Maschine ein bestimmtes Feedback in Form von Verstärkungen, Belohnungen oder Bestrafungen[8].»Beispielsweise könnten das Fehlen eines Trinkgeldes am Ende einer Fahrt für den Taxi-Agenten ein Hinweis darauf sein, dass er etwas falsch gemacht hat«[9].

2.1.2 Lernansätze & Algorithmen

Um Aufschluss darüber zu geben, wie die zu lernenden Daten mit Hilfe verschiedenster Algorithmen klassifiziert werden können, beschreibt dieser Absatz drei exemplarische Ansätze zur Klassifikation der Daten.

  • Künstliche neuronale Netze
  • Naive Bayes Klassifikation
  • K-Nearest Neighbor

Das Ziel der künstlichen neuronalen Netze ist es, die Arbeitsweise des menschlichen Gehirns zu imitieren und dieses als mathematisches Modell darzustellen[10]. Diese Form der Klassifikationsweise wird dann eingesetzt, um komplexe Relationen zwischen Ein- und Ausgabewerten zu erkennen. Künstliche Neuronen simulieren die Funktionsweise einer biologischen Nervenzelle und setzen sich aus einzelnen Einheiten zusammen, welche aus vier verschiedenen Komponenten bestehen: Soma, Dendriten, Axon und den Synapsen. Das mathematische Äquivalent zur biologischen Nervenzelle besteht ebenfalls aus der Soma, welche in drei grundsätzlichen Funktionen aufgeteilt ist: Eingabefunktion, Aktivierungsfunktion sowie der eigentlichen Ausgabe, welche an die Ausgabeverknüpfungen weitergeleitet werden (Axon). Jeder einzelnen Eingabeverknüpfung wird einer Gewichtung zugeordnet. Diese Gewichtung bzw. Verstärkung von bestimmten Eingangssignalen (Dendriten) wird durch die sogenannten Synapsen (Bias-Gewicht) durchgeführt[11]. Demnach ergibt sich die folgende Abbildung für das mathematische Modell eines Neurons[12]:

Abbildung 2.2: Modell eines Neurons

[13]Abbildung 2.2: Modell eines Neurons

Im Gegensatz zu der bereits genannten Klassifikationsmethode der neuronalen Netze trifft der Naive Bayes Klassifikator, welcher zur Familie der überwachten Lernverfahren gehört, die Annahme, dass jedes einzelne Element autonom von den restlichen Elementen existiert[14]. »Das bedeutet, dass jedes einzelne Merkmal einen unabhängigen Wahrscheinlichkeitsbeitrag liefert, dass ein Objekt einer bestimmten Klasse angehört (Kotsiantis & Pintelas, 2005). Die Wahrscheinlichkeit dass ein Objekt der Klasse K angehört kann als a posteriori Wahrscheinlichkeit nach Bayes ausgedrückt werden«[15]:

In Anlehnung an: Thom (2012), S. 59

In Anlehnung an: Thom (2012), S. 59

Diese Gleichung kann an einem Beispiel erläutert werden. Der Naive Bayes-Filter wird beispielsweise dazu verwendet, um E-Mails zwei bestimmten Kategorien zuzuweisen: Spam oder nicht-Spam. Durch eine Modifikation der oben aufgeführten Gleichung ergibt sich ein Konstrukt, welches zur Klassifikation von E-Mails in den beiden bereits genannten Kategorien durchgeführt wird.

In Anlehnung an: Linke (2003)

In Anlehnung an: Linke (2003)

Die elementare Frage, welche bei der Verwendung des naive Bayes Algorithmus hinsichtlich der Spam-Filterung gestellt werden muss, ist, »wie hoch die Wahrscheinlichkeit ist, dass die Nachricht, die aus den n Wörtern Bild:wi.png besteht, zur Kategorie Spam beziehungsweise Ham gehört«[16]. Ham bezeichnet in diesem Kontext eine, im Gegensatz zum Spam, erwünschte E-Mail.

Die Problematik, komplexe Sachverhalte zu klassifizieren, wird durch diesen Algorithmus deutlich vereinfacht. Ein weiterer gravierender Vorteil des „Naive Bayes“ Klassifikators ist die hohe Konvergenzgeschwindigkeit, sowie der geringere Speicherbedarf während der Trainingsphase der zu lernenden Maschine. Ein weiterer Ansatz zur Differenzierung der zu lernenden Datensätze ist das k-Nearest Neighbor Prinzip. Wie der Naive Bayes Klassifikator gehört die K-Nearest Neighbor Methode zum Verfahren des überwachten Lernen. Das Konzept des „nächsten Nachbarn“ trifft die Entscheidungen anhand der nächstgelegenen Trainingsobjekte im Merkmalsraum[17]. Dabei werden die nächsten Nachbarn in einer Mehrheitsentscheidung mit einbezogen[18].

Das k-Nearest Neighbor Prinzip findet beispielsweise im Bereich der Bonitätsprüfung Verwendung. Um zu erfassen, welche Person ihre Rechnung bezahlt bzw. nicht bezahlt, werden diese Personen in zwei bestimmte Klassen eingeteilt (Klasse 1 = Person bezahlt Rechnung; Klasse -1 = Person bezahlt Rechnung nicht). Die Klassifikation findet nur mittels der Merkmale Alter und der Höhe des Einkommens statt. Andere Einflüsse werden in diesem Beispiel nicht berücksichtigt. Um nun zu ermitteln, ob eine Person A den Betrag einer Rechnung begleichen würde, werden nun zum Beispiel die Klassenzugehörigkeit der fünf nächsten Nachbarn ausgewertet und mit der Person A verglichen. Hinsichtlich der Merkmale Alter und Einkommen haben in diesem Beispiel in der Vergangenheit drei von fünf Personen mit den nächstgelegenen Ausprägungen im Merkmalraum ihre Rechnung bezahlt. Nur zwei Personen haben den Prozess der Bezahlung nicht durchgeführt. Demnach wird die Person A der Klasse 1 zugeordnet. Ein überaus großer Vorteil des „k-Nearest Neigbor“ Klassifikators ist, dass im Prinzip kein Training der zu lernenden Maschine benötigt wird, sondern nur die Merkmalsvektoren (in diesem Fall Alter und Einkommen) »der einzelnen Objekte und deren Klassenetikett gespeichert werden«[19][20].

2.1.3 Anwendungsgebiete

Abbildung 2.3: Anwendungsgebiete des Machine Learning

[21]Abbildung 2.3: Anwendungsgebiete des Machine Learning

Die unter 2.1.2 genannten Lernverfahren des Machine Learning finden in vielen alltäglichen Bereichen bereits Verwendung. »Neben dem Einsatz in der Bioinformatik, Robotik und für die physiologische Mustererkennung (Sprach-, Handschrift- oder Gesichtserkennung), werden Formen des Machine Learning unter Anderem zur Textkategorisierung und für medizinische Zwecke (Diagnose, Prognose und Wirkstofferkennung) herangezogen«[22].

Weitere Teilbereiche der Wirtschaft, in denen das Machine Learning bereits integriert wurde, sind die Marktanalyse (Marketing) und das Finanzwesen. Abbildung 2.2 veranschaulicht die anfallenden Datenmengen in den jeweiligen Anwendungsgebieten, welche von den Systemen basierend auf unterschiedlichen Lernverfahren verwendet werden[23].

2.2 Finanzmarkt

Auf allen Finanzmärkten weltweit werden finanzielle Mittel von dem Kapitalanbieter (Anleger) zu den Kapitalnachfragern (Investoren) übermittelt. Diese These wird durch die Abbildung 2.3 veranschaulicht. Der Bereich der Kapitalanbieter setzt sich aus dem Sektor der privaten Haushalte zusammen. Aufgrund der Bereitstellung des Kapitals durch die Anleger erhalten diese einen Gegenwert, welcher oft in Form von Wertpapieren ausgeschüttet wird. Die Investoren setzen sich aus zwei Teilbereichen zusammen: Unternehmen und Staat. Die Vermittlung des eingesetzten Kapitals, sei es Eigenkapital oder Fremdkapital, wird durch so genannte Finanzintermediäre durchgeführt. Dazu gehören z.B. Banken, Versicherungen, Bausparkassen und Fondsgesellschaften. Diese Institutionen agieren dementsprechend als Transportunternehmen der Finanzanlagen[24].

Der Teil des Kapitals, welcher nicht zur Finanzierung von inländischen Sachinvestitionen verwendet wird, fließt als Netto-Kapitalexport ins Ausland. Der Netto-Kapitalexport errechnet sich durch Kapitalexporte minus Kapitalimporte. Es ergibt sich die logische Schlussfolgerung, dass aus der Sicht des Inlands das Geldvermögen in Form von Netto-Auslandsforderungen steigt, das Ausland aber hingegen Netto-Verbindlichkeiten gegenüber dem Inland eingeht, sodass sich das Geldvermögen vermindert[25].

Abbildung 2.4: Kapitalvermittlung auf Finanzmärkten

[26]Abbildung 2.4: Kapitalvermittlung auf Finanzmärkten

2.2.1 Akteure des Finanzmarktes

Damit der tägliche Betrieb des Finanzmarktes gewährleistet werden kann, ist die Interaktion verschiedenster Akteure erforderlich. Die Abbildung 2.4 zeigt die wichtigsten Akteure des Finanzmarktes mit den dazugehörigen Institutionen. Der folgende Abschnitt beschreibt die Interaktion und Kommunikation der Akteure untereinander und deren Funktionen auf dem Finanzmarkt.

Abbildung 2.5: Wichtige Akteure des Finanzmarktes

[27]Abbildung 2.5: Wichtige Akteure des Finanzmarktes

Zentralbanken

»Zentralbanken handeln im gesamtwirtschaftlichen Interesse«[28]. Laut Sperber (2014) ist es die wesentliche Aufgabe der europäischen Zentralbank (EZB) für Geldwertstabilität innerhalb der Mitgliedsländer der Europäischen Währungsunion zu garantieren. Dazu gehört es, Konjunkturen zu stimulieren aber auch Rezessionen frühzeitig zu erkennen, um diesen positiv entgegenwirken zu können. Die EZB soll vor allen Dingen jedoch für eine gewisse Preisstabilität sorgen, d.h. es soll sowohl ein Anstieg des Preisniveaus um mehr als zwei Prozent jährlich als auch ein Rückgang des Preisniveaus vermieden werden. Umgangssprachlich ist die Zentralbank die Bank des Staates und der Banken. Somit agiert eine Zentralbank als letzte Refinanzierungsquelle der Kreditinstitute und fungiert als Hausbank des Staates.[29].

Geschäftsbanken

Zu den primären Aufgaben der Geschäftsbanken gehört das sogenannte Commercial Banking. Bei dem Commercial Banking handelt es sich um die Entgegennahme von Kundeneinlagen und die Gewährung von Fremdkapital. Zudem organisieren die Geschäftsbanken den allgemeinen Zahlungsverkehr und den Währungstausch. Neben den Zentralbanken sind die Geschäftsbanken ausnahmslos einer der wichtigsten Akteure am Finanzmarkt, da sich ihre Aufgabenbereiche auf die komplette Volkswirtschaft orientiert. Neben dem Commercial Banking existiert das sogenannte Investment Banking. Dieser Zweig des Bankgeschäfts behandelt hauptsächlich Tätigkeiten wie z.B. die Vermögensverwaltung von Kunden, der Handel von Wertpapieren, Mergers & Acquisitions (Fusionen und Übernahmen) sowie Corporate Finance (Unternehmensfinanzierung)[30].

Institutionelle Investoren

»Hierbei handelt es sich einmal um Unternehmen, die im Rahmen ihrer Geschäftstätigkeit (Bausparkassen, Versicherungen) Einzahlungen entgegennehmen und dieses Kapital für eine Zwischenzeit anlegen und verwalten«[31]. Darüber hinaus investieren andere Institutionen wie Stiftungen, Universitäten oder Kirchen ihre finanziellen Mittel, welche durch Mitgliedsbeiträge oder Sponsoren zusammenfließen. Zudem gibt es sogenannte Pensionskassen, welche durch Beiträge vom Arbeitgeber sowie -nehmer gefüllt werden. Große Unternehmen wie Daimler, Volkswagen oder Siemens verwalten solche »Pensionsfonds«, die über mehrere Jahre hinweg eine beachtliche Summe an Vermögen aufbauen. Dieses Kapital, welches von Fondsmanagern verwaltet wird, kann dem Arbeitnehmer nach seiner Pensionierung dann als zusätzliche Betriebsrente zur Verfügung gestellt werden[32].
Kapitalanlage- bzw. Investmentgesellschaften

Kapitalanlage- bzw. Investmentgesellschaften sind spezielle Unternehmen, welche Investmentfonds emittieren. Zumeist handelt es sich bei diesen Unternehmen um Tochtergesellschaften von Banken. Das Konzept des Investmentfonds arbeitet nach folgendem Prinzip: Die Anleger investieren einen bestimmten Betrag und erhalten dafür im Gegenzug Fondsanteile ihrem Depotwert gutgeschrieben. Über solche Anteilsverkäufe kommen in dem Investmentfonds idealerweise mehrere hundert Millionen Euro zusammen, welcher hier als „Topf“ betrachtet werden kann, in den die Kapitalgeber investieren. Durch den Erwerb solcher Fondsanteile an einem diversifizierten Portfolio kann somit das Risiko der Investition minimiert werden[33]. Dieses Prinzip der Geldanlage ist für Kunden interessant die nach einer weniger risikobehafteten Investitionsmöglichkeit suchen.

Abbildung 2.6: Grundprinzip von Investmentfonds

[34]Abbildung 2.6: Grundprinzip von Investmentfonds

2.2.2 Definition des Kapitalmarktes

»Zum Markt für langfristige Finanzierungen (Laufzeit mehr als 4 Jahren) gehören zum einen der Kapitalmarkt«[35]. Üblicherweise wird der Kapitalmarkt auch als Wertpapiermarkt bezeichnet, da an diesem hauptsächlich börsenfähige Wertpapiere wie z.B. Aktien oder Anteile an Investmentfonds emittiert und gehandelt werden. Unterschieden wird in Anleihen-, Renten- und Aktienmarkt. Der bereits genannte Renten- und Aktienmarkt wird aufgeteilt in Primär- sowie Sekundärmarkt. Diese beiden Formen des Aktienmarkts werden in Kapitel 2.2.3 dieser Arbeit erläutert. Eine andere Umschreibung des Pimär- bzw. Sekundärmarkts ist der organisierte Kapitalmarkt. Alle Wertpapiermärkte werden unter diesem Begriff definiert. Der Gegensatz zum organisierten Kapitalmarkt ist der nicht organisierte Kapitalmarkt. Dieser befasst sich hauptsächlich mit dem direkten bzw. indirekten Handel von Darlehen, Beteiligungen und Hypotheken zwischen Anbietern und Nachfragern. Der Kontrast zum Kapitalmarkt ist der sogenannte Geldmarkt. Dieser behandelt Märkte für kurz- und mittelfristige Finanzierungen[36].

2.2.3 Aufgaben-, Funktionen und Bereiche des Kapitalmarktes

Der Kapitalmarkt als solches, welcher die Aufgabe hat die mittel- sowie langfristigen Kapitalanlagen bzw. -aufnahmen zu organisieren, besteht insgesamt aus zwei Teilbereichen:

  • Organisierter Kapitalmarkt
  • Nicht organisierter Kapitalmarkt

Diese beiden Bereiche des Kapitalmarktes handeln hauptsächlich Wertpapiere. Dazu gehören unter anderem Aktien und Industrie-, Bank- und Staatsanleihen sowie Anteile an Investmentfonds. Ein weiterer Bestandteil des Kapitalmarktes sind die Märkte für Hypothekendarlehen. All diese Anlageformen sind für die langfristigen Finanzierungen ausgelegt[37].

Der organisierte Kapitalmarkt behandelt zumeist alle längerfristigen Transaktionen unter Einschaltung von Kreditinstituten und Kapitalsammelstellen. Die ausgeprägteste Form des organisierten Kapitalmarktes ist die Börse. Der organisierte Kapitalmarkt steht unter ständiger Beobachtung des Staates. Das Gegenstück des organisierten Kapitalmarktes ist der nicht organisierte Kapitalmarkt. Zu diesem Teil des Kapitalmarktes gehören insbesondere Kreditbeziehungen zwischen Unternehmen, zum Beispiel in Form eines langfristigen Lieferantenkredits. Ebenfalls Kreditbeziehungen zwischen privaten Haushalten sowie zwischen Unternehmen und Haushalten sind Bestandteil des nicht organisierten Kapitalmarktes[38].

Ein sehr guter Träger dafür, um Kapital in Umlauf zu bringen, sind Wertpapiere. Kapitalsuchende Unternehmen (KN) oder der Staat lancieren Wertpapiere in Form von Geldmarktpapieren, Anleihen oder Aktien, welche üblicherweise von Banken bzw. einer Gruppe von Banken an die Kapitalinvestoren (KA) verkauft werden. Diese erstmalige Kapitalvermittlung geschieht auf dem Primärmarkt, welcher in Abbildung 2.6 auf der linken Seite zu erkennen ist. Der Kapitalnachfrager, in diesem Falle das Unternehmen, welches seine Wertpapiere emittiert, erhält für eine bestimmte Anzahl von Aktien den entsprechenden Gegenwert. Dieser Prozess ist an dem Geld- bzw. Wertpapierstrom in der Grafik deutlich zu erkennen. Die Kapitalinvestoren, welche während der Erstemission der Wertpapiere auf dem Primärmarkt beispielsweise Aktien eines Unternehmens erworben haben, können diese erworbenen Wertpapiere auf dem so genannten Sekundärmarkt in Umlauf bringen. Die Wertpapiere werden lediglich anderen Kapitalanbietern verkauft. Zusammenfassend ist der Sekundärmarkt eine Plattform für den Handel mit bereits in Umlauf befindlichen Wertpapieren. Dieser Handel mit Wertpapieren, welche sich bereits im Umlauf befinden, wird auch als Börse bezeichnet und obliegt bestimmten gesetzlichen Regelungen und Kontrollen. Ein weiterer Sektor des Sekundärmarktes ist der außerbörsliche Handel, welcher auch »Telefonhandel« genannt wird[39].

Abbildung 2.7: Emission und Handel von Wertpapieren

[40]Abbildung 2.7: Emission und Handel von Wertpapieren

Neben der Kapitalvermittlung haben die Finanzmärkte noch andere Funktionen, wie die Losgrößentransformation. Bei dieser Art der Transformation werden viele kleine Anlagebeträge von den Banken gebündelt, um eine Finanzierung großer Investitionen zu ermöglichen. Neben der Losgrößentransformation existieren noch die Fristentransformation und die Risikotransformation[41].

  • Fristentransformation: Bei der Fristentransformation wird gezielt von der Überlassungsdauer der angelegten Gelder eines Unternehmens abgewichen[42]
  • Risikotransformation: »Risikotransformation bewirkt, dass das Risiko eines Unternehmens von vielen Anlegern gemeinsam getragen wird«[43]

2.3 Machine Learning zur Prognose Finanzmarktspezifischer Daten

Die Börse ist ein elementarer Teil des Finanzmarktes. Die Grundlage zur Prognostizierung von Finanzdaten wie z.B. Aktien- oder Fondsverläufe sind die Historiendaten, welche in Betracht gezogen werden müssen. Da progressive Computersysteme des 21. Jahrhunderts dieses enorme Datenaufkommen aufgrund verschiedener Klassifikationsalgorithmen deutlich schneller analysieren können als der Mensch, werden immer mehr analytische Aufgaben an Maschinen delegiert. Die Bedingung für Durchführung dieser analytischen Aufgaben sind das Festlegen von definierten Rahmenbedingungen.

2.3.1 Datenaufnahme und Vorverarbeitung

Als Prämisse für die Prognoseerstellung durch progressive Computersysteme des 21. Jahrhunderts, muss ein relevanter Datenbestand vorliegen. Beim erstellen besagter Datenprämisse muss akkurat ausgewählt werden welche Daten zu berücksichtigen sind, da jeder nicht zielführende Datensatz die Datenprämisse verfälscht[44]. Beim Erheben der Datenprämisse ist es, aufgrund der Erhebungsmethoden und der Beschaffenheit der zu erhebenden Daten,(Video, Ton, Kursverläufe, etc.) denkbar, dass die Datenprämisse nachteilig beeinflusst wird. N Die Aufnahme eines Stimmmusters ist beispielsweise durch Hintergrundgeräusche verfälscht. Hierdurch ist die Datenprämisse inkorrekt. Es ist unumgänglich das die kompromittierenden Geräusche aus dem Stimmmuster isoliert und entfernt werden, bevor dieser Datensatz Teil der Datenprämisse wird. Derlei korrigierendes Eingreifen im vorne herein nennt sich Preprocessing. Ohne Preprocessing kann nicht gewährleistet werden, dass die Datenprämisse relevant und aussagekräftig für die angestrebten Zwecke ist.[45] Beim Erstellen der Datenprämisse müssen mandatorisch auch exogene Daten berücksichtigt werden. Am Beispiel eines Aktienkurses wird deutlich, dass der Kursverlauf unabhängig von der Art des Verlaufes (Positiv oder Negativ) unter anderem von politischen Entscheidungen abhängig ist. Unberücksichtigte exogene Einflüsse beeinträchtigen somit die Prognosequalität enorm. Aus dieser Erkenntnis kann gefolgert werden, dass bekannte und absehbare exogene Faktoren zwingend in die Datenprämisse aufgenommen werden müssen[46].

2.3.2 Umgang mit den zu verarbeitenden Merkmalen

Beim Studieren der Datenprämisse ergeben sich Merkmale mit differenzierter Aussagekraft über das Betrachtungsobjekt. Ein Betrachtungsobjekt wird als ein einzelnes Objekt der Datenprämisse definiert. Wird das Beispiel eines Aktienverlaufs zu Grunde gelegt, ist es denkbar, dass die Merkmale explizit das Betrachtungsobjekt skizzieren. Derlei Merkmale nennt man direkte Merkmale. Weiterhin ist denkbar, dass Merkmale, welche das Betrachtungsobjekt nur dann direkt skizzieren, wenn diese in Verbindung mit anderen Merkmalen studiert werden, existieren. Diese Merkmale nennen sich indirekte Merkmale. Es gilt aus dem kooperativen Studium der indirekten Merkmale, neue direkte Merkmale zu etablieren. Das Fusionieren von Merkmalen wird somit ein wesentlicher konstitutiver Bestandteil beim Studium von Merkmalen, um eine direkte Skizzierung des Betrachtungsobjektes zu erreichen. Merkmale mit gültiger Aussagekraft werden hierbei nicht verworfen, sollten diese mit einem nicht gültigem Merkmal fusioniert werden.[47]Merkmale, die sich auf identische Betrachtungsobjekte beziehen, weisen eventuell differenzierte Ausprägungen auf. Diese Sachlage berücksichtigend, ist es erforderlich, die studierten Merkmale zu Standardisieren, um das Betrachtungsobjekt generisch zu definieren.[48]Merkmale mit differenzierten Ausprägungen sind generalisierbar. Beim Generalisieren von Merkmalen muss sich darauf besonnen werden, dass durch die Generalisierung, mandatorisch spezifische Daten verloren gehen. Notwendigerweise muss entschieden werden, welcher Spezifikationsgrad und welche Generalisierungsstufe benötigt werden.[49]

2.3.3 Validierung der erhobenen Daten

Die erstellten Klassifikationen müssen kritisch bewertet werden, ob diese das Betrachtungsobjekt genügend beschreiben. Hierzu können die vorhandenen Daten in drei verschiedene Teile unterteilt werden. Es wird ein Teil benötigt anhand dessen die Klassifizierungen angepasst werden. Ein weiterer Teil dient zur Überprüfung der Klassifikationen, damit aufgrund dieser Klassifikationen, Parameter für die Erstellung von Prognosen erstellt werden können. Um die definierten Parameter auf Gültigkeit zu verifizieren, wird der dritte Teil der Daten verwendet. Damit eine möglichst präzise Verifizierung der Parameter erzielt wird, muss mandatorisch die Anzahl der Verifizierungsdurchläufe maximiert werden. Eine maximierte Anzahl Verifizierungsdurchläufe garantiert eine höhere Präzision. Auf diese Weise ist es realisierbar zu verifizieren, ob die definierten Parameter nur für einen Teil oder für die Gesamtheit der Datenprämisse Gültigkeit besitzen.[50]

Abbildung 2.8: Anzahl der Durchgänge n eines Zufallsexperiments

[51]Abbildung 2.8: Anzahl der Durchgänge n eines Zufallsexperiments

2.4 Analysetechniken

2.4.1 Fundamentalanalyse

Mithilfe der Fundamentalanalyse wird der Wert eines Unternehmens unter Berücksichtigung verschiedener Faktoren bewertet. Der Ansatz der Fundamentalanalyse folgt der Annahme, dass das betrachtete Unternehmen einen wirtschaftlichen Wert besitzt, dem sich der zugehörige Aktienkurs langfristig anpasst. Der Wert des betrachteten Unternehmens wird als innerer Aktienwert definiert. Mit dem inneren Aktienwert wird die Aktienrentabilität bewertet, was Rückschlüsse auf die Branchenrentabilität ermöglicht. Eine geläufige Methode ist die Present Value Theory. Die Present Value Theory besagt, dass der innere Wert der Aktie durch die Summe der Dividenden und weiteren Geldwerten Vorteile auf eine einzelne Aktie entfallen und auf den aktuellen Tag abgezinst werden. Das Gegenwartswert- oder Barwertkonzept ermöglicht die Errechnung des inneren Wertes[52].

Abbildung 2.9: Gegenwart- & Barwertrechnung

[53]Abbildung 2.9: Gegenwart- & Barwertrechnung

Das vereinfachte Konzept des Price-Earning-Ratio-Verfahrens (PER) erlaubt Rückschlüsse auf die Zukunftsaussicht der Kursgewinne eines studierten Unternehmens. Durch dieses Mittel wird eine möglichst zeitnahe Einsicht der Kursgewinnchancen von Firmenaktien gewonnen. Es ist mandatorisch zu berücksichtigen, dass die Kursgewinnchancen sich in Abhängigkeit zu dem inneren Wert der Aktie befinden[54].

Abbildung 2.10: PER Berechnung

[55]Abbildung 2.10: PER Berechnung

Erwähnenswert ist, dass Konklusionen den globalen Markt betreffend, anhand der Skizzierung eines einzelnen Unternehmens erarbeitet wurden, nur von ungenügender Qualität sind. Es sollte ebenso vermieden werden, anhand des globalen Marktes Schlussfolgerungen für ein spezifisches Unternehmen zu ziehen. Um Konklusionen annehmbarer Qualität zu ziehen, ist es mandatorisch Unternehmens spezifische, Branchenspezifische sowie globale Aspekte zentralisiert zu beurteilen[56].

In Anlehnung an: Erhardt (2006), S. 11 Abbildung 2.11: Verhältnis Global, Branche und Unternehmen

In Anlehnung an: Erhardt (2006), S. 11 Abbildung 2.11: Verhältnis Global, Branche und Unternehmen

Verfahren, um Unternehmens spezifische, Branchenspezifische und globale Aspekte zu Studieren, sind die Top-Down-Analyse und die Bottom-Up-Analyse. Die Top-Down-Analyse verfolgt den Ansatz globale Daten auf die Branche zu spezifizieren, die hierdurch etablierten Konklusionen werden wiederum auf die Unternehmen spezifiziert. Bei der Bottom-Up-Analyse wird vice versa versucht, die unternehmensspezifischen Konklusionen auf die Branche zu generalisieren, welche wiederum auf den globalen Markt generalisiert werden[57].

2.4.2 Technische Analyse

Abbildung 2.12: Die drei definierten Trends

[58]Abbildung 2.12: Die drei definierten Trends

Die Technische Analyse – teilweise auch als Chartanalyse bekannt –versucht durch Beobachtung von Marktbewegungen Kurstrends vorherzusagen. Es wird davon ausgegangen, dass alle nötigen Marktinformationen bereits in den Kursverläufen enthalten sind und eine Analyse der betriebswirtschaftlichen Daten des Unternehmens nicht notwendig ist. Die Technische Analyse lässt sich in drei Ansätze unterteilen [59]

1. Die Marktbewegung diskontiert alles

2. Kurse bewegen sich in Trends

3. Die Geschichte wiederholt sich selbst
1. Die Marktbewegung diskontiert alles

Alles was die Kurse beeinflussen kann wird durch den Marktpreis wiedergespiegelt. Es wird angenommen, das die Kurse steigen sobald die Nachfrage größer dem Angebot ist und die Kurse fallen sobald das Angebot die Nachfrage übertrifft. Durch diese Annahme ist es beim Machine Learning möglich ein Verhaltensmuster aus dem Kursverlauf und dem Marktpreis zu erstellen, um daraus eine Vorhersage zu den weiteren Kursverläufen ableiten zu können.

2. Kurse bewegen sich in Trends

Eine Analyse von Aktienverläufen erfordert mandatorisch die Einteilung besagter Verläufe in Trends. Trends verdeutlichen Aktienverläufe und ermöglichen somit Wahrscheinlichkeitsprognosen über den weiterführenden Verlauf[60]. Als Prämisse für die Einteilung in Trends muss definiert werden welche Anzahl von Trendarten zu spezifizieren sind. Ferner ist Bestandteil der Prämisse, welche Distinktionen es zwischen den spezifizierten Trends existieren und wie besagte Trends sich unterscheiden. Um Trends zu definieren, werden die Verlaufsrichtungen der kurzzeitigen Kursspitzen (weiterhin genannt Gipfel) und der kurzzeitigen Kurstiefen (weiterhin Täler genannt) studiert. Hierdurch werden die Trends wie folgt definiert. Eine Seitwärtsbewegung von Gipfeln und Tälern definieren einen Seitwärtstrend, eine sukzessive Steigerung von Gipfeln und Tälern definieren einen Aufwärtstrend vice versa definiert einer sukzessiver Abfall der Gipfel und Täler einen Abwärtstrend[61].

Abbildung 2.13: Primär- Sekundär- und Tertiärtrend

[62]Abbildung 2.13: Primär- Sekundär- und Tertiärtrend

Jeder Trend wird als langfristig, kurzfristig oder mittelfristig kategorisiert[63]. Es gilt zu berücksichtigen das jede Trendart innerhalb eines Aktienverlaufes unendlich häufig existiert. Um die Menge der zu betrachtenden Trends zu minimieren ist mandatorisch zu definieren welcher Zeitraum als langfristig, kurzfristig oder mittelfristig gültig ist. Eine Zeitraumdefinition für langfristige Trend ist eine Trenddauer von größer sechs Monaten. Mittelfristige Trends sind als gleichbleibende Trendverläufe von drei Wochen bis mehreren Monaten definiert. Alle Trendverläufe, die kürzer als drei Wochen andauern, werden als kurzfristiger Trend definiert[64].

Zusammenfassend wurde definiert, dass Trends aus Gipfeln und Tälern bestehen. An dem Zeitpunkt an dem ein Tal niedrig genug ist, wechselt das Verkaufsverhalten in ein Kaufverhalten. Hierdurch wird der vorherrschende Abwärtstrend zu einem Aufwärtstrend. Dieser exakte Zeitpunkt wird als Unterstützung definiert. Vice versa wird der exakte Zeitpunkt eines Wechsels von Aufwärtstrend zu Abwärtstrend als Widerstand definiert[65].

Abbildung 2.14: Darstellung von Unterstützung und Widerstand

[66]Abbildung 2.14: Darstellung von Unterstützung und Widerstand

Eine Widerstandslinie ist nicht ausserstande einen steigenden Trend zu unterbrechen, infolge dessen ist die Widerstandlinie als kurzzeitige Unterbrechung definiert. Für eine Unterstützungslinie folgt der gleichen Gesetzmäßigkeit. Ein fortgesetzter Aufwärtstrend kann dadurch bestimmt werden, dass die sukzessive aufeinander folgenden Unterstützungen einen höheren Kurspunkt beschreiben, als die jeweilige vorhergehende Unterstützung. Ein fortgesetzter Abwärtstrend ist bestimmbar, sobald die sukzessive aufeinander folgenden Widerstände tiefere Kurspunkte beschreiben, als der jeweilige vorangegangene Widerstand. Es ist unumgänglich zu definieren wie Kurswechsel bestimmt wird. Ein Kursabfall kann bestimmt werden, sobald in einem Aufwärtstrend ein Kursabfall die vorhergegangene Unterstützungslinie unterschreitet. Nach dieser Gesetzmäßigkeit kann ebenfalls bestimmt werden, dass ein Kursanstieg vorliegt, sobald in einem Abwärtstrend die vorhergegangene Widerstandslinie überschritten wird. Die Bestimmung eines Kursanstiegs oder Kursabfalls, ermöglicht eine Trendumkehrung oder den Übergang in einen Seitwärtstrend[67]. Wird nach einem Trendwechsel von einem Abwärtstrend die höchste bisherige Widerstandslinie deutlich überschritten wird diese beim Trendwechsel als neue Unterstützungslinie gewertet. Dieses vorgehen nennt sich Rollentausch von Unterstützung und Widerstand[68].

Abbildung 2.15: Darstellung eines Trendbruchs

[69]Abbildung 2.15: Darstellung eines Trendbruchs

Abbildung 2.16: Darstellung eines Rollentausches zwischen Widerstand und Unterstützung

[70]Abbildung 2.16: Darstellung eines Rollentausches zwischen Widerstand und Unterstützung

3. Die Geschichte wiederholt sich selbst

„Der Schlüssel zum Verständnis der Zukunft liegt im Studium der Vergangenheit, oder die Zukunft ist nur eine Wiederholung der Vergangenheit[71]“ Hierbei wird angenommen, dass sich Aktientrends in der Vergangenheit bereits abgespielt haben. Vergangene Kursinformationen bzw. Markteinflüsse, die sich der Annahme nach wiederholen müssten, können dabei für eine Vorhersage verwendet werden.

3 Anwendung des Machine Learning – Aktienkursprognosen

3.1 Grundlage der zu lernenden Daten

Grundlage für die zu lernenden Daten sind einerseits die Quellen, welche zur Prognosenerstellung benötigt werden und zum anderen die Methodik, um diese auswerten zu können. Um Aktienprognosen mittels Machine Learning erstellen zu können, müssen zu Beginn die Quellen hinsichtlich der benötigten Daten definiert werden. Für eine Prognose sollten die Daten aus Quellen stammen von der sich auch andere Aktieninhaber Informationen beschaffen würden, um somit ein Verhalten zwischen Angebot und Nachfrage besser bestimmen zu können. Quellen die Informationen über zukünftige Dividenden, Zinssätze und zukünftige Kurse liefern sind hierfür geeignet. Die Informationen können automatisiert aus Onlineportalen bzw. Nachrichtenmagazinen entnommen oder manuell eingegeben werden. Bei einer manuellen Eingabe ist eine weitere Kontrolle durch den Anwender möglich was auf der einen Seite zwar den Aufwand erhöht, aber auf der anderen Seite sicherstellt das nur geprüfte Daten für eine Prognose verwendet werden. Als Grundlage für die maschinelle Auswertung der Daten, wird in dieser Arbeit auf das neuronale Netz weiter eingegangen. Ein neuronales Netz besteht aus künstlichen Neuronen und stellt einen Teil der künstlichen Intelligenz dar. Bei der Mustererkennung, Kategorisierung oder auch Prognose werden neuronale Netze erfolgreich eingesetzt[72]. Im Gegensatz zu einem Computerprogramm müssen neuronale Netze nicht programmiert oder auf eine bestimmte Situation angepasst werden. Mit vorhandenen Daten kann so ein Netz angelernt werden und auf Grundlage dessen, in einer neuen bzw. unbekannten Situation mit den gelernten Daten assoziativ reagieren[73]. Intern arbeitet ein Netz mit unterschiedlichen Neuronen die miteinander in verschiedenen Schichten verknüpft sind. In dem Inputlayer werden die Eingaben von der Außenwelt entgegengenommen und gewichtet an Hiddenlayer weitergeleitet. Der Hiddenlayer bewertet die Eingangssignale und gibt diese Anschließend an den Outputlayer weiter, wo diese dann ausgegeben werden. In einigen Anwendungsfällen, wird auf die Verwendung eines Hiddenlayer verzichtet. Dann werden die Informationen direkt von dem Input- an den Outputlayer weitergegeben. Die Neuronen haben so gesehen als Aufgabe Informationen aus der Umwelt oder von anderen Neuronen aufzunehmen und diese in abgewandelter Form weiterzugeben. Im Outputlayer wird anschließend das kumulierte Ergebnis ausgegeben[74]. Je nach Lernstand des neuronalen Netzes erfolgt durch eine Menge von Eingaben, eine auf die Eingaben bezogene Menge von Ausgaben. Durch den Lernstand können die Neuronen individuell Verknüpfungen zu anderen Neuronen aufbauen, Gewichtungen ändern oder Verknüpfungen trennen[75]. Wie bereits erläutert, sind die einzelnen Neuronen mit einer Gewichtung verknüpft. Je höher der Absolutbetrag der Gewichtung ist, um so größer ist auch der Einfluss auf die nächste Einheit. Eine positive Gewichtung gibt an, dass ein Neuron einen erregenden Einfluss auf den nächsten Layer ausübt. Eine Negative Größe bedeutet, das das Neuron hemmend auf den anderen Layer wirkt. Bei einem Wert von Null wird keine Wirkung auf die nächste Schicht ausgeübt. Neben der Gewichtung wird das Ergebnis zum nächsten Neuron auch durch dessen Output-Leistung oder auch Output-Betrag genannt, beeinflusst. Erst die Multiplikation zwischen Output-Betrag und Gewichtung ergibt das Ergebnis welches als Input an das nächste Neuron weitergeben wird. Input für das nächste Neuron kann auch als Formel angegeben werden: Input der Unit i: input = Output-Betrag * Gewichtung Bei einem Output-Betrag von „-3“ und einer Gewichtung von „-0,5“ würde ein Input von „1,5“ am nächsten Neuron anliegen[76]. Der Inhalt des Outputlayers wird durch die Anordnung bzw. Gewichtung der einzelnen Neuronen bestimmt. Eine kleine Veränderung der Gewichtung kann somit schon das Ergebnis der vorhin im Beispiel genannten Kreditzusage beeinflussen. Im Folgenden wird ein exemplarisches Beispiel gezeigt, wie die einzelnen Verbindungen der Neuronen bewertet werden können. Die Neuronen die in der Tabelle mit „0“ bewertet werden haben keine direkte Verbindung zueinander.

Abbildung 3.1: Aufbau eines neuronalen Netzes mit Gewichtungsbeispiel

[77]Abbildung 3.1: Aufbau eines neuronalen Netzes mit Gewichtungsbeispiel

Tabelle 3.1: Gewichtungsbeispiel angeordneter Neuronen
1 2 3 4 5 6 7 8 9
1 0 0 0 0 0 0 0 0 0
2 0 0 0 0 0 0 0 0 0
3 0 0 0 0 0 0 0 0 0
4 0 0 0 0 0 0 0 0 0
5 0,6 0 0 0 0 0 0 0 0
6 -0,1 0,4 0,9 0 0 0 0 0 0
7 0 -0,5 -0,6 0,5 0 0 0 0 0
8 0 0 0 0 0,3 0,3 0 0 0
9 0 0 0 0 0 0,6 0,9 0 0

Abbildung 3.2: Aufbau eines neuronalen Netzes mit Bias-Neuronen

[78]Abbildung 3.2: Aufbau eines neuronalen Netzes mit Bias-Neuronen

Durch die Aktivierungsfunktion der Neuronen, kann das Ergebnis auch weiter beeinflusst werden. Es kann z.B. ein Schwellwert (Schwellenwertfunktion) definiert werden, welcher nur beim Übersteigen die Funktion aktiviert[79].

Eine weitere Möglichkeit die Ausgabe zu beeinflussen stellt das Bias-Neuron bzw. Bias-Unit da. Ein Bias-Neuron ist ein zusätzliches mit dem Faktor 1 konstantes Neuron in dem Input- bzw. Hiddenlayer definiert ist. Die Gewichtung fällt entweder positiv oder negativ auf die anderen Neuronen aus. Bei einer positiven Gewichtung sorgt das Bias-Neuron dafür, dass die empfangene Einheit auch aktiv bleibt, wenn kein starker positiver Input der anderen Neuronen vorliegt. Bei einer negativen Gewichtung besteht die Gefahr das die verbundenen Units in einem negativen bzw. inaktiven Zustand verharren. Weiterhin ist einen Negativen Gewichtung von Vorteil, wenn ein Schwellenwert simuliert werden soll. Ein bestimmtes Ergebnis wird nur durch übersteuern des Bias-Neurons zugelassen. Die anderen Input-Neuronen müssen somit ungefähr ein einheitliches Ergebnis wiederspiegeln, um das Bias-Neuron übersteuern zu können. Der Bias-Wert ist somit eine Stellschraube, um das Ergebnis anpassen zu können[80].

3.2 Erstellung lernfähiger Merkmale

Bevor Daten für die Erstellung lernfähiger Merkmale verwendet werden können, müssen diese zunächst Aufbereitet werden. Ein sauberer Datenbestand ist die Grundlage des Machine Learning. Der Computer wird auch mit dem besten Klassifikationsverfahren bei unzureichend gefilterten bzw. nicht angepassten Daten keine guten Ergebnisse erziehen[81]. Swingler erkannte, dass die Daten zuerst gesäubert werden müssen, um ein zufriedenstellendes Ergebnis zu erziehen[82]. Die Säuberung der Daten ist zwar mit einem relativ hohen Aufwand verbunden, hat aber einen entscheidenen Einfluss auf die Güte der Ergebnisse[83]. Eine gute Datenqualität bzw. dessen Datenvorverarbeitung ist eine Grundlage für das Machine Learning.

Abbildung 3.3: 2-zu-1-Aktiensplit

[84]Abbildung 3.3: 2-zu-1-Aktiensplit

Technische Handelssysteme die in den Jahren 1978-1984 auf Basis täglicher Kursdaten des US Futuresmarktes profitabel arbeiteten, erzielten in den Jahren 1985-2003 laut Park & Irwin keine positiven Erträge mehr. Schulmeister schrieb, dass die auf Tagesdaten basierenden technischen Handelssysteme seit den 1960er Jahren eine andauernde abnehmbare Profitabilität erwiesen, die ab den frühen 1990er Jahren unprofitable wurde. Eine Untersuchung hingegen Schulmeisters Studie, wurde auf Basis von 30-Minütigen Intervallen durchgeführt. Diese Untersuchung wies keine Abnahme der Profitabilität auf. Dr. Patrick René Thom führte aus diesem Grund eine weitere Untersuchung mit eher kurzfristigeren als täglichen Intervallen durch[85]. Er wählte ein Intervall von 15 Minuten aus, da nach seiner Ansicht hierdurch sowohl eine umfangreiche Datenbasis als auch eine hohe Aktualität der Kurse berücksichtigt sind. Die Untersuchung dauerte 1000 Handelstage und er hatte nachher eine Datenbasis von 26.000 Fünfzehn-Minuten Perioden. Neben dem Handelsvolumen lagen ihm die jeweiligen Eröffnungs-, Höchst-, Tiefst- und Schlusskurse vor. Die gewonnenen Rohdaten wurden in drei Stufen für eine Merkmalserstellung vorbereitet. In der ersten Stufe wurden Dividendenzahlungen und Kapitalmaßnahmen, wie das Einrechnen von Aktiensplits, in die Kurse durchgeführt. Trat ein Aktiensplitt ein, wurden alle Kurse durch den Faktor 2 von Thom dividiert und das Handelsvolumia anschließend verdoppelt[86]. In Abbildung 3.3 zeigt Thom grafisch wie er bei einem 2-zu-1-Aktiensplit vorgegangen ist. In der zweiten Stufe wurden die Daten auf mögliche Ausreißer untersucht. Kursänderungen von mehr als 10% wurden als Ausreißer definiert. Bei einem erkannten Ausreißer wurde ermittelt, ob es sich um einen fehlerhaften Datenpunkt oder einer existierenden Kursveränderung handelte. Fehlende Datenpunkte wären durch Interpolationsmöglichkeiten behandelt worden[87]. In der Dritten und letzten Stufe wurde die Vollständigkeit der Daten sichergestellt. Wie auch bei den fehlerhaften Datenpunkten wären hier fehlende Periodeneinheiten durch Interpolation behandelt worden[88]. Die so gewonnenen Daten können anschließend für weitere Maßnahmen zur maschinellen Prognose des Aktienkurses verwendet werden.

3.2.1 Chartdeskription

Abbildung 3.5: Vergleich zwischen Linienchart und Candlestickanalyse

[89]Abbildung 3.5: Vergleich zwischen Linienchart und Candlestickanalyse

Abbildung 3.4: Candlestickchart

[90]Abbildung 3.4: Candlestickchart

Um Kursverläufe und Kursänderungen schnell auf einem Blick erkennen zu können, werden diese meistens grafisch dargestellt. Dies kann z.B. mit einem Linienchart oder Balkendiagramm geschehen. Während Menschen diese Art von Darstellung leicht auswerten können, ist dies für Computer nicht sehr ideal. Für einen Rechner müssen die Daten numerisch bzw. Mathematisch beschrieben werden. Neben den Kursangaben, gehören auch Durchschnittswerte und Merkmale die eine relative Lage beschreiben zu den benötigten Daten. Relative Werte können aus der Differenz zwischen Eröffnungs-, Höchst-, Tiefst und Schlusskursen ermittelt werden. Mit einem Candlestickmuster können Kursverläufe für den Computer mathematisch beschrieben werden. Steigende Kurse werden mit einem weißen Kerzenkörper gezeichnet. An den beiden Äußeren Enden werden jeweils der Höchst und Tiefstkurs definiert. Der Höchstkurs oben und der Tiefstkurs unten. Der Schlusskurs wird direkt unter dem Höchstkurs und der Eröffnungskurs über dem Tiefstkurs angegeben. Fallende Kurse werden mit einem schwarzen Kerzenkörper beschrieben. Wie auch bei dem weißen Kerzenkörper wird der Höchstkurs ganz oben und der Tiefstkurs ganz unten definiert. Anders als beim weißen Kerzenkörper wird hier der Eröffnungskurs unter dem Höchstkurs und der Schlusskurs über dem Tiefstkurs beschrieben. Die folgende Abbildung stellt den Aufbau eines Candlesticks grafisch dar[91]. Abbildung 3.5 zeigt ein Beispiel wie Kursverläufe mit der Candlestick grafisch angezeigt werden können. Im oberen Bereich der Abbildung wird ein Linienchart einer Aktie dargestellt. Der untere Bereich zeigt dieses Linienchart in Candlestick-Notation. Die Größe, Farbe und Form der einzelnen Candlesticks liefern Informationen über Höchst-, Tiefst-, Schluss- und Eröffnungskurs der jeweiligen Periode. Die erstellten Candlestickmuster können anschließend für das Training von neuronalen Netzen für die Erstellung einer Aktienkursprognose verwendet werden.

3.2.2 Technische Indikatoren

Die technischen Indikatoren sollen helfen einen Trend möglichst früh erkennen zu können. Die verschiedenen technischen Indikatoren sollen als Ergebnis einen mathematischen Wert liefern, der aus den Kurs – und Handelsdaten ermittelt wurde. Hier wird auch versucht aus der Vergangenheit ermittelte Informationen in zukünftige Prognosen mit einfließen zu lassen. Für eine Vorhersage können verschiedene Oszillatoren verwendet werden. Im Rahmen dieser Arbeit wird nur auf begrenzte Zahl von der Vielfalt von Möglichkeiten mit Oszillatoren bzw. Indikatoren eingegangen. Ein Oszillator hilft dem Trader kurzfristige Extremsituationen zu erkennen und zu bewerten. Er warnt z.B. den Trader wenn ein Trend an Momentum verliert, bevor die eigentliche Situation bzw. Kursbewegung eintritt. Weiterhin können mit einem Oszillator Divergenzen angezeigt werden, das sich ein Trend seiner Vollendung nähert. Der Zeitpunkt in dem der Oszillator als Hilfsmittel verwendet wird, ist hier von entscheidender Bedeutung. Eine Oszillator-Analyse ist bei beginn bedeutender Kursbewegung nicht sehr hilfreich. Erst gegen Ende wird diese hilfreich[92].

Momentum

Abbildung 3.6: Beispiel eines Momentums

[93]Abbildung 3.6: Beispiel eines Momentums

Im Folgenden wird die Oszillator-Analyse „Momentum“ weiter erläutert. Das Momentum zeigt die Geschwindigkeit von Kursbewegungen Grafisch an. Es werden fortlaufend Kursdifferenzen von einem Aktienkurs für ein festes Zeitintervall berechnet. Um die Differenz zu ermitteln wird der Schlusskurs von dem letzen Intervall vom aktuellen subtrahiert. Für die folgenden Beispiele wird ein Zeitintervall von 10 Tagen angenommen. Die Formel lautet hierzu:

In Anlehnung an: Murphy (2003), S. 229

In Anlehnung an: Murphy (2003), S. 229

Ist der errechnete Wert größer als der vor 10 Tagen, dann sind die Kurse gestiegen. Der Wert wird also oberhalb der Nulllinie eingetragen. Ist der Wert kleiner als der vor 10 Tagen, dass sind die Kurse gefallen. Der Wert wird in diesem Fall unterhalb der Nulllinie eingetragen. Ist der Wert über der Nulllinie und steigt, dann ist eine Beschleunigung des Aufwärtstrends zu verzeichnen. Ist der Wert zwar über der Nulllinie aber auch ein Trend Richtung dieser zu verzeichnen, dann ist der Aufwärtstrend noch intakt, allerdings nur noch mit abnehmbarer Steigung. Fällt der Graph unter der Nulllinie ist der aktuelle Wert der Aktie geringer als vor 10 Tagen. Der Verlangsamung des Abwärtstrends wird deutlich, sobald die Linie wieder anfängt zu steigen. In der folgenden Abbildung wird ein Momentum mit einem Intervall von 10 Tagen gezeigt.

Relative stärke Index

Abbildung 3.7: RSI Beispiel

[94]Abbildung 3.7: RSI Beispiel

Ein weiterer technischer Indikator ist der „Relative stärke Index“ (RSI). Ein Vorteil von RSI ist es, dass dieser für eine Glättung von Verzerrungen und eine n konstanten Bandbreitenwert zwischen 0 und 100 liefert. Eine Schwäche des vorhin vorstellten „Momentums“ ist, dass plötzliche Veränderungen der Aktie einen starken Anstieg oder Abstieg der Momentumlinie hervorrufen können. Durch die Glättung des RSI wird dieser Ausriss auf einen konstanten Wert zwischen 0 und 100 gebracht. Weiterhin können mit dem Relativen stärke Index zwei Wertpapiere oder Branchen miteinander verglichen Werten. Es wird mit den Wertpapieren oder Branchen so gesehenen ein objektiver Benchmark durchgeführt. Die Formel hierzu lautet:

Murphy (2003), S. 241

Murphy (2003), S. 241

Ein Wert über 70 wird als überkauft angesehen, ein Wert unter 30 wird einer überverkauften Marktsituation angesehen. Die Abbildung 3.7 zeigt ein Beispiel von einem relativen stärke Index[95].
Aroon Oscillator

Der Aroon Oscillator wurde im Jahr 1995 definiert und wird dazu verwendet, um auf erste Anzeichen einer Trendwende reagieren zu können. Es wird davon ausgegangen, dass bei Aufwärtstrends regelmäßig neue Hochpunkte und bei Abwärtstrends neue Tiefpunkte erreicht werden. Aufgrund dieser Annahme wird die Anzahl der Perioden zwischen beiden letzten Hoch- und Tiefpunkten festgehalten, um anhand dessen, eine Vorhersage einer möglichen Trendwende erstellen zu können. „Aroon-Up“ und „Arron-Down“ sind maßgebliche Bestandteile des Aroon Oscillator. Die vergangenen Perioden die seit dem letzten Hoch auftraten werden mit „Aroon-Up“ und die vergangenen seit dem letzten Tief mit Aroon-Down gezählt[96]. Mit der folgenden Formel kann der Aroon Oscillator bestimmt werden:

[97]

3.2.3 Metadaten

Bei der Ermittlung der Metadaten werden exogene Größen betrachtet die sich nicht direkt auf das zu analysierende Unternehmen zurückführen lassen bzw. nicht zu dessen deskriptiven Merkmalen gehört. Die Entwicklung von Währungspaaren gehört beispielsweise zu diesen Metadaten. Steigt oder sinkt eine Währung im Kurs, dann hat dies Auswirkungen auf Unternehmen die ein Großteil Ihres Umsatzes in der entsprechenden Währung verzeichnen. Maßgeblichen Einfluss hat die Änderung des Wertes einer Währung auf die Importpreise bzw. dessen Exportumsatzes eines international arbeitenden Unternehmens. Unternehmen wie z.B. „The Coca Cola Company“ die einen Großteil ihres Umsatzes im Ausland verzeichnen, kann die Entwicklung zwischen den Währungen EUR und US Dollar, Einfluss auf das Unternehmensergebnis und somit auch auf den Aktienkurs bewirken. Neben Währungsdifferenzen haben auch Rohstoffpreise wie z.B. Ölpreise Einfluss auf die Preis- und Umsatzentwicklung auf Unternehmen. Vor allem produzierende Unternehmen sind hiervon betroffen. Die Rohstoffpreise nehmen Einfluss auf die Produktionskosten und diese müssen entweder durch einen geringeren Gewinn oder eine Preisanpassung dem Kunden gegenüber angepasst werden. Auch der Goldpreis kann auf den Wert einer Aktie Einfluss nehmen, selbst wenn das Unternehmen kein Gold verarbeitet oder damit handelt. Anhand des Goldpreises können Inflationserwartungen oder das Vertauen der Anleger abgeleitet werden. Die vorhin genannten Metadaten müssen für das Machine Learning als Merkmal in die Merkmalskategorie „Metadaten“ hinzugefügt und beachtet werden[98].

3.2.4 Skalierung

Durch die Skalierung können die ermittelten Werte in ein einheitliches Intervall überführt werden. Das Intervall kann Größen von -100 bis +100 Einheiten annehmen. Wichtig ist nur, dass alle Werte skaliert werden damit die relative Größe zueinander nicht verändert wird. Im Gegensatz zu dem RSI-Verfahren werden einzelne Ausreißer nicht eliminiert, es wird lediglich die Größe der einzelnen Werte angepasst. Die angepassten Werte können anschließend als Input für einzelne Klassifikatoren verwendet werden[99]. Weiterhin können mit der Univariate Skalierung einzelne Ausprägungen mit der Gesamteinheit verglichen werden. In dem bereits genannten Beispiel mit der Kreditzusage, könnte mittels Skalierung das Verhältnis zwischen „guten“ und „schlechten“ Kunden veranschaulicht werden. Um das Ergebnis zu erhalten, müssen diese in Relation gesetzt werden. Dabei ist Ausprägung bzw. die Wahrscheinlichkeit, das die einzelnen Merkmale zu den guten oder schlechten Kunden gehören, zu beachten. Um den Skalenwert für die „guten“ Kunden zu erhalten, muss die Anzahl der Merkmale der guten, durch die Anzahl der Merkmale der guten und schlechten Kunden dividiert werden[100].

3.3 Merkmalsselektion

Die primäre Aufgabe der Merkmalsselektion ist es ein gewisses Gleichgewicht zwischen dem Bestand inkrementeller Merkmale und einer Steigerung der Effizienz beim Verarbeiten der Trainingsdaten durch das Entfernen redundanter Merkmale herzustellen. Aufgrund der hohen Zufallswahrscheinlichkeit sowie der nicht linearen Beschaffenheit der finanzmarktspezifischen Daten gestaltet es sich überaus schwierig eine effiziente Weise der Merkmalsselektion durchzuführen. Innerhalb des Feldversuchs nach Thom wurden zum einen die Leistung von korrelations- und regressionsbasierter Filtermethoden sowie wrapperbasierte Selektionsmethoden geprüft. Bei einem Wrapper handelt es sich um ein Programm zur inhaltlichen Extraktion von Informationen. Wrapper werden beispielsweise dazu verwendet, um relevante Informationen wie Preis oder Geschwindigkeit eines Notebooks aus Angebotsseiten zu extrahieren. Diese werden anschließend dazu verwendet, um Angebote vergleichen zu können. Bei einem Lernproblem handelt es sich um eine Regression, wenn es sich bei y um eine Zahl wie z.B. das morgige Wetter handelt. In diesem Fall ist y das positive Ergebnis einer Hypothese im Bezug auf die Vorhersage neuer implementierter Beispieldaten. Realistisch betrachtet sucht man bei einem Regressionsproblem nur nach einem Erwartungs- bzw. Durchschnittswert, da die Wahrscheinlichkeit, den exakten Wert für y zu finden sich im Bereich 0 bewegt. Innerhalb der korrelations- und regressionsbasierten Filtermethoden nach Sperman oder Pearson wurde folgendes festgestellt: »Durch diese Filtermethoden wurde bei der Selektion mehr inkrementelle Information eliminiert als gewünscht, da deren Anwendung die Klassifikationsgüte verschlechterte«[101]. Im Gegensatz zu den regressionsbasierten Filtermethoden konnten die wrapperbasierten Selektionsmethoden wie z.B. die „Floating“ oder „Forward“ Suchmethode auf der Basis einer k-Nearest-Neighbor Klassifkation neue verwertbare Untermengen von Merkmalen ermitteln und selektieren. Das Ergebnis der Klassifikation konnte jedoch mit diesen zusätzlichen Merkmalen nicht verbessert werden, sondern lediglich innerhalb eines konstanten Bereichs gehalten werden. Das Verhältnis der erhöhten Rechenzeit steht somit in keinem positiven Zusammenhang mit der Trainings- und Klassifikationszeit. Aufgrund dieser Tatsachen ist in den nächsten Analyseprozessen auf die Verwendung von Filtern und Wrappern verzichtet worden[102].

3.4 Einteilung der Objekte in Klassen

Die Grundannahme bei der Klassifizierung von Objekten ist die Unterscheidung der studierten Objekte in steigende und fallende Kurse. Desweiteren gilt die Grundannahme das steigende und fallende Kurse in der gleichen Häufigkeit existieren. Diese Annahmen sind dahingehend riskant, das hierdurch die Möglichkeit existiert, das tatsächliche Kursbewegungen nicht berücksichtigt werden. Alle Kursrückgänge werden der Klasse Null zugewiesen, während alle ansteigenden Kursbewegungen der Klasse Eins angehören. Diese Zuordnung behält Gültigkeit, unabhängig von der Höhe der Kursänderung. Dadurch sollen Kursveränderungen von 0,0001% berücksichtigt werden. Die Realveränderung ist in derlei Fällen so niedrig, dass diese zu vernachlässigen ist und in der Praxis als „unverändert“ angesehen wird. Um diese Minimalveränderungen abzufangen, wird eine dritte Klasse verwendet. Aufgrund der Einführung einer dritten Klasse minimiert sich die Anzahl der zugeordneten Objekte und erhöht die Komplexität des Klassifikationsverfahrens. Eine „vertikale“ Abgrenzung des Kursverlaufes wird dadurch ermöglicht, dass alle Kursänderungen welche unterhalb von 10% einer definierten Standardabweichung stattfinden, der dritten Klasse zugeordnet werden. Es ist irrelevant, ob besagte minimale Kursabweichung positiv oder negativ definiert sind. Diese Abgrenzung wird als bewertungsfreie Zone definiert[103].

Abbildung 3.8: Abbildung der Vertikalen Abgrenzung / der "Grauzone"

[104]Abbildung 3.8: Abbildung der Vertikalen Abgrenzung / der „Grauzone“

Nach Implementierung dieses Verfahrens kann festgestellt werden, dass dadurch nicht die Klassifikationsqualität angehoben wird. Die Qualität der Klassifikation wird erhöht, sobald der Klassifikationszeitpunkt auf den Periodenhöchstkurs einer Betrachtungsperiode definiert wird. Begründet wird dies durch den Umstand, dass der Periodenhöchstkurs ein Zeitraum mit tatsächlicher Aufwärtsbewegung ist. Der Periodenhöchstkurs wird naturgemäß vor dem Ende der Betrachtungsperiode erreicht. Der Periodenhöchstkurs ist mandatorisch sowohl zeitlich als auch Wertetechnisch zu definieren. Hierfür wird auch die Periodendauer definiert. Es werden in der Praxis 15-Minuten-Perioden studiert. Liegt der Kurshöchstwert innerhalb der definierten Periodendauer über 0,15% vom Periodenschlussstand ist dies als Periodenhöchstwert definiert. Bewegungen unterhalb der definierten 0,15% werden nicht berücksichtigt und der Klasse Null zugeordnet[105].

Börsendaten unterliegen naturgemäßer Unsicherheiten und Zufälligkeiten. In Verbindung mit der binären Auswahlsweise der Klassifizierung, ist es denkbar, das auch sehr kleine Kursänderungen als Empfehlung interpretiert werden, um Aktien abzustoßen oder zu kaufen. Eine fehlerhafte Klassifizierung in Klasse Null, würde keine Handlung initiieren, entgegen einer fehlerhaften Klassifizierung in Klasse Eins. Daraus ergibt sich, das Primär die Anzahl der korrekten Klassifizierungen der klasse Eins im relativen Vergleich zu den inkorrekten Klassifizierungen der klasse Eins zu maximieren sind. Es ist also nachrangig die Gesamtheit der Fehlklassifizierung zu minimieren. Bei der Unterteilung in die Klassen Null und Eins, werden beide Prioritär identisch behandelt, was erfordert, das eine neue Priorisierung erfolgt. Die Priorisierung wird durch die Anpassung der Grenzwerte erreicht. Der Grenzwert für die Klassifizierung in Klasse Eins wird angehoben, woraus folgt, das die Anzahl der Objekte in Klasse Eins sich minimiert. Vice versa maximiert sich die Anzahl der Objekte in Klasse Null. Mandatorisch werden Objekte die Tatsächlich eine positive Kursänderung beschreiben, der Klasse Null zugeordnet, da die Kursänderung trotz positiver Tendenz zu niedrig ist. In der Gesamtheit wird die Aussagekraft der Klasse Eins ungeachtet dessen erhöht[106].

Abbildung 3.9: Abbildung der Anhebung der Klassifizierungsgrenze zur Klasse Eins

[107]Abbildung 3.9: Abbildung der Anhebung der Klassifizierungsgrenze zur Klasse Eins

3.5 Klassifikation

Ziel der Klassifikation ist es, nach wiederkehrenden Merkmalmustern zu suchen, um auf neue Situation besser reagieren zu können. Es wird davon ausgegangen, dass es eine Menge von Objekten gibt, die jeweils einer Klasse zugeordnet werden können. Bei der Klassifikation wird versucht einen Klassifikator zu erstellen, der neue bzw. unbekannte Objekte der richtigen Klasse zuweist[108]. Bezogen auf eine Aktienkursprognose wird versucht durch die Verwendung von Merkmalmustern den Kursverlauf besser zu charakterisieren. Dr. Patrick René Thom konnte im Rahmen seiner Arbeit 331 Merkmale generieren die er in den Kursverlauf charakterisieren musste. Die einzelnen Merkmale wurden anschließend in Fünf verschiedene Featuresubsets unterteilt:

Untergruppe Kategoriebezeichnung Anzahl Merkmale
[109]Tabelle 3.2: Aufteilung Featuresubsets
Subset A Chartdescription 110
Subset B Indikatoren und Transformationen 63
Subset C Erste Ableitung Indikatoren und Transformationen 58
Subset D Zweite Ableitung Indikatoren und Transformationen 58
Subset E Metadaten 58
Gesamtzahl Merkmale 331

Je Feature-Subset wurden 16000 Objekte für das Training der Klassifikation verwendet. Für Test und Validierungsprozesse wurden weitere 10000 Objekte vorbehalten. Dabei wurden die Zeitlich ältesten Daten für für das Training und die jüngsten Daten für die Validierung der Klassifikation verwendet. Um die höchstmögliche Stabilität der Klassifikation durch neuronale zu gewährleisten, wird ein Rastersuchverfahren durchgeführt. Zu diesem Zweck unterteilt Thom den Trainingsanteil des Feature-Subsets in zwei zeitlich zusammenhängende Datensätze. Der erste Teil (laut Thom ca. 75%) werden zum Testen verwendet, derweil dient der zweite Teil zur Überprüfung und Anpassung der Parameter und wird von ihm als „Tuningset“ betitelt. Um unter Verwendung des Tuningsets die jeweilige Klassifikationsgüte der trainierten neuronalen Netze zu überprüfen, wurden diese in acht weitere kleinere Datensätze zergliedert. Um die Zuverlässigkeit und Beständigkeit der neuronalen Netze zu bewerten, werden sowohl der erwartete Ergebniswert, als auch die Streuung des Erwartungswertes über die acht Teile des Tuningsets zum Vergleich herangezogen. Thom verwendet für die Erstellung eines Rankings die Fitnessfunktion.[110] Das neuronale Netz welches den höchsten Fitnesswert ɸ aufweist, eignet sich für den Ansatz des Machine-Learning.[111] Thom erkannte, dass die Kombination mehrere Klassifikatoren zuverlässiger urteilt als einzelne Klassifikatoren. Aus diesem Grund setzte er eine Kombination von Klassifikatoren ein, die laut Studien bei finanzmarktspezifischen Problemen des Machine Learnings gute Ergebnisse erzielen. neuronale Netzte, Support Vektor Maschinen und AdaBoost verwendete er unter anderem für die Klassifikation in seiner Arbeit.[112] Wird ein Klassifikator mehrmals angepasst, um die Klassifikationsgüte zu verbessern, desto unwahrscheinlicher wird es, dass bei der Klassifikation unbekannter Objekte das Ergebnis reproduzierbar ist. Durch eine Validierung des Klassifikationsalgorithmus auf die ungesehenen Daten, kann eine Erkenntnis über dessen Generalisierungsfähigkeit gewonnen werden. Weiterhin ist die Wahl der Methodik für die Datenauswertung sehr wichtig. Neuronale Netze bieten den Vorteil, nonlineare Zusammenhänge gut erkennen zu können. Allerdings besteht bei neuronalen Netzen eine höhere Gefahr des Overfitting bzw. Underfitting. Bei einer zu großen Anzahl der Neuronen bezogen auf die einzelnen Layer, ist es möglich das der Overfitting-Effekt eintritt und die Generalisierungsfähigkeit auf ungesehene Daten gehemmt wird. Aus diesem Grund entsteht ein Zielkonflikt zwischen Adaption und Generalisierungsfähigkeit des Neuronalen Netzes. Im Gegensatz zu den neuronalen Netzen ist die Erstellung von Support Vektor Maschinen weniger von der Wahl der Parameter abhängig. Nur der Parameter zur Fehlergewichtungskonstante und teilweise der Bandbreitenfaktor ist laut Thom zu optimieren.[113]

3.6 Ergebnisse

Im Folgenden wird auf die Ergebnisse, die durch das Machine Learning im Bezug auf Kapitalmärkten gewonnen wurden, weiter eingegangen. In diesem Kapitel werden die Resultate von Dr. René Thom bzgl. der Eignung verschiedener Klassifikatoren analysiert.

Thom verwendete für seine Analyse des Aktienmarktes jeweils fünf verschiedene Klassifikatoren für die selbe Anzahl an Merkmalkategorien, die zu insgesamt 31 Instrumenten trainiert wurden. Seine Gesamtanzahl an Klassifikatoren betrug demnach 775.[114] »Zu jeder einzelnen Kombination eines trainierten Klassifikators und einer Merkmalkategorie (A-E) bestehen jeweils acht Ergebnisse durch Unterteilung des Testdatensatzes in Unterdatensätze. Durch diese Unterteilung sind insgesamt 775*8=6200 Testvorgänge durchgeführt worden«[115] Um den Klassifikationserfolg und Stabilität bestimmen zu können, wird eine statische Größe zu jeder Klassifikator-Merkmalkategorie-Kombination ermittelt. Dazu versuchte Thom die Wahrscheinlichkeit einer richtigen Klassifizierung eines Objektes in Klasse Eins zu maximieren. Mit Unsicherheit behaftete Objekte sollten aus diesem Grund eher Klasse Null zugeordnet werden.[116] »Der positive prädikative Wert wird alsdann zur a priori 1-Klssenwahrscheinlichkeit (Wapr) ins Verhältnis gesetzt, indem mit Delta (∆) die Differenz dieser Größen errechnet wird.«[117] Über der Differenz aus positiv prädiktivem Wert und Wapr, wurde der Mittelwert „µ∆“ durch Thom bestimmt. Weiterhin wurde auch die Standardabweichung (ó∆) bestimmt, um die Stabilität eines Klassifikationsalgorithmus bestimmen zu können. Eine geringe Streuung steht dabei im Zeitablauf für ein stabiles Ergebnis. Der Mittelwert und die Streuung der Deltawerte wurde durch Thom in den Fitnesswert ɸ miteinbezogen. Als Resultat steigt der Fitnesswert mit steigendem Mittelwert und fallender Streuung der Deltawerte. Laut Thom besagt ein Fitnesswert von ≤ 1, das der Klassifikationsalgorithmus keinen Vorteil über die naive Allokation aller Objekte in Klasse Eins bietet. Thom betrachtete im weiteren Verlauf die Mittelwerte und Standardabweichungen als Klassifikationsfehler (µKF ; óKF). Durch die Klassifikationsfehler wird der Anteil der insgesamt fehlerhaft zugeordneten Objekte wiedergegeben. Mit der Sensitivität gibt Thom wieder, welcher Anteil der Klasse Eins angehörenden Objekte korrekterweise der Klasse Eins zugeordnet wurden. Besitzt µ∆ bei geringer Sensitivität einen hohen Wert, dann deutet dies darauf hin, das nur wenige Objekte der Klasse Eins zugeordnet werden konnten. Mit der Spezifität gibt Thom den Anteil der korrekterweise der Klasse Null zugeordneten Objekte wieder. Die Spezifität wird in seiner Arbeit mit µSP und mit óSP angegeben[118]. Die folgende Abbildung zeigt einen Überblick über die durch Thom verwenden Klassifikatoren und deren Ergebnisse.

Abbildung 3.10: Vergleich der Klassifikatoren

[119]Abbildung 3.10: Vergleich der Klassifikatoren

Bezeichnung Beschreibung
[120]Tabelle 3.3: Beschreibung der Klassifikationsvariablen
Wapr A priori 1-Klassenwahrscheinlichkeit
µKF Mittelwert der Klassifikationsfehler
óKF Standardabweichung der Klassifikationsfehler
µKF Mittelwert der Klassifikationsfehler
µSE Mittelwert der Sensitivitätswerte
óSE Standardabweichung der Sensitivitätswerte
µSP Mittelwert der Spezifitätswerte
óSP Standardabweichung der Spezifitätswerte
µMW Mittelwert der gemittelten Sensitivitäts- und Spezifitätswerte
óMW Standardabweichung der gemittelten Sensitivitäts- und Spezifitätswerte
min Minimum der Differenzen aus positivem prädiktiven Wert und Wapr
max Maximum der Differenzen aus positivem prädiktiven Wert und Wapr
ó Standardabw. der Differenzen aus positivem prädikativen Wert und Wapr
µ Mittelwert der Differenzen aus positivem prädikativen Wert und Wapr
ɸ Fitnesswert nach Gleichung 4.51

Weiterhin überprüfte Thom, ob eine vorhersage kurzfristiger Aktienkursrenditen mit den vorgestellten Methoden auch wirtschaftlich sind. Neben dem Wertverlust einer Aktie, müssen auch die Kosten für das Handelssystem und die eigentliche Berechnung berücksichtigt werden. Es wird also überprüft, ob eine Überrendite bzgl. der Investitionen erzielt werden kann. Um dies zu ermitteln, legte Thom folgende Randbedingungen fest: Das Klassifikationsziel bestand darin, einen neuen Höchstkurs von mindestens 0,15% gegenüber dem Schlusskurs der Vorperiode erzielen zu können. Wie in Kapitel 3.2 „Erstellung lernfähiger Merkmale“ bereits geschrieben, verwendete er dafür ein relativ kleines Zeitintervall von 15 Minuten. Um das Risiko größerer Verluste zu minimieren, wurde eine Verlustschwelle von 0,3% definiert. Sobald diese Schwelle überschritten wurde, wird die bestehende Position geschlossen und ein Verlust akzeptiert. Bei einem neutralen Ergebnis wird die Position am Ende der Periode geschlossen. Für seinen Versuch verwendete Thom 31 Instrumente und stellte diese der Entwicklung des Dow Jones Industrial Average gegenüber. In dieser Arbeit wird nicht weiter auf die einzelnen 31 Instrumente eingegangen, sondern das kumulierte Ergebnis betrachtet.[121]»Durchschnittlich konnten 13% Gewinn mit dem Handelssystem erzielt werden, während die Direktinvestition in die Instrumente im Betrachtungszeitraum im Mittel 33% Verluste brachte.«[122] Einige Aktien arbeiteten im Handelssystem unprofitabel, obwohl mit diesen im Rahmen der Meta-Klassifikation gute und teils, sogar sehr gute Ergebnisse aufwiesen.[123] »Spätestens an dieser Stelle wird deutlich, dass positive Klassifikationsergebnisse allein keine erfolgreiche, praktische Umsetzung der Vorgaben der künstlichen Intelligenz garantieren.«[124] Im Bezug auf seine Ergebnisse hält Thom folgendes fest: »Es ist zu beachten, dass bei der praktischen Umsetzung des Handelssystems Gebühren anfallen, die in dieser Betrachtung vernachlässigt worden sind. Weiterhin muss berücksichtigt werden, dass der theoretische Ausführungskurs im „Live-Trading“ nicht immer erreichbar ist. Hierdurch fiele der tatsächliche Gewinn in der praktischen Umsetzung wesentlich geringer aus. Dennoch unterstützt die theoretische Profitabilität dieses Handelssystems die These, dass verhersagbare Komponenten der Aktienkursentwicklung existieren, und dass diese durch maschinelles Lernen aufgedeckt werden können.«[125]

4 Schlussbetrachtung

Im Verlauf dieser Arbeit konnte durch die kritische Untersuchung des Einsatzes verschiedener Lernverfahren bei der Analyse von finanzmarktspezifischen Daten aufgezeigt werden, dass sich maschinelle Lernverfahren nur bedingt für die erfolgreiche Prognose von Aktienkursen eignen. Die Betrachtung der Ergebnisse verdeutlicht, dass es Teilbereiche des Aktienmarktes gibt, die mit Hilfe des Machine Learning analysiert und prognostiziert werden können. Dennoch war und ist es nicht möglich, mit den vorhandenen Kombinationen aus verschiedenen Klassifikatoren und Merkmalen eine vollständige Prognose eines Aktienkurses vorhersagen zu können.

Zudem konnte festgestellt werden, dass bei der Analyse von Kapitalmärkten, insbesondere dem Aktienmarkt, eine Vielzahl von Faktoren berücksichtigt werden müssen, um eine erfolgreiche Prognostizierung von Aktienkursen ermöglichen zu können. Im Hinblick auf das exponentiell steigende Datenaufkommen ist es ein elementarer Faktor die Qualität der verwendeten Daten zu prüfen, da lediglich aufbereitete und gesäuberte Datensätze für ein Klassifikationsverfahren positive Ergebnisse liefern und somit den Erfolgsfaktor im Hinblick auf die Prognose stark beeinflussen. Bezüglich der Prägnanz der zuvor genannten Datenprämisse ist es ausschlaggebend, dass bekannte und absehbare exogene Faktoren berücksichtigt werden und in die Analyse der Datenbasis mit eingebunden werden. In dieser Arbeit wurde zudem nachgewiesen, dass direkte sowie indirekte Merkmale eine elementare Rolle im Bezug auf die Aussagekraft für das Betrachtungsobjekt spielen. Das Ziel war es, eine hohe Generalisierung der Merkmale zu erreichen, um im Nachhinein diese für weitere Berechnungen sowie Vergleiche nutzen zu können. Bei einer anschließenden Klassifikation mussten die Daten ausschließlich aufgeteilt werden, um diese auf Grund von Prognostizierbarkeit, Kontrollierbarkeit und Anpassbarkeit verwenden zu können.

Bei den Analysetechniken wurden zwei verschiedene Herangehensweise untersucht. Hierbei wurde zwischen der Fundamentalanalyse und der technischen Analyse differenziert. Die Fundamentalanalyse erwies sich im Gegensatz zur technischen Analyse als förderlich, falls der „innere Wert“ einer Aktie herangezogen werden sollte. Durch den Vergleich zwischen inneren und tatsächlichen Wert der Aktie, ergibt sich eine weitere Möglichkeit, um die Kauf- oder Verkaufsentscheidung bewerten zu können. Prinzipiell dient die Fundamentalanalyse der Bewertung eines Unternehmens. Neben der Fundamentalanalyse wurden ebenfalls die Hintergründe bzw. Funktionen der technischen Analyse untersucht. Die Technische Analyse versucht unter anderem die Kurse in unterschiedliche Trends einzuordnen, um anhand dessen, einen Aufwärts-, Abwärts oder Seitwärtstrend herausfiltern zu können. Für die Durchführung dieser Analysetechnik wurden verschiedene Technische Indikatoren auf dessen Vor- und Nachteile bzw. Möglichkeiten untersucht. Neben der verwendeten Analysetechnik sowie der Säuberung der Daten ist es ein bedeutender Faktor, gleicherweise die Quellen und Auswertmethodik zu priorisieren. Während der Entwicklung dieser Arbeit wurden mehrere Methoden der künstlichen Intelligenz dargestellt und miteinander verglichen. Exemplarisch wurde dabei auf die Verwendung neuronaler Netze, sowie deren Gewichtungseigenschaften und Methoden eingegangen. Beispielsweise wurde dabei die Erkenntnis getroffen, dass schon eine minimale Veränderung hinsichtlich der Gewichtung eines Entscheidungsträgers maßgeblichen Einfluss auf die getroffene Entscheidung hat.

Um es den verschiedenen Methoden der KI zu ermöglichen, Daten maschinell auswerten zu können, müssen diese neben einer Aufbereitung auch in ein maschinenlesbares Format übertragen werden. Mit einem Candlestickmuster können Kursverläufe, also Höchst-, Tiefst-, Eröffnungs- sowie Schlusskurs für die zu lernende Maschine mathematisch dargestellt werden. Weitere Indikatoren, die sich in einer Kombination als erfolgreich herausstellten, waren der Momentum- sowie RSI-Indikator. Diese ermöglichten es, einzelne Ausreißer, die durch einen plötzlichen An- oder Abstieg des Aktienwertes hervorgerufen wurden, zu glätten. Nach einer erfolgreichen Skalierung sowie Selektion der vorhandenen Merkmale wurde die Klassifikation der Objekte durchgeführt. Ziel dieser war es, nach wiederkehrenden Merkmalsmustern zu suchen, um auf neue Situationen während der Trainingsphasen besser reagieren zu können. Diese Merkmalsmuster wurden anschließend fünf verschiedenen Subsets zugeordnet. Insgesamt wurden während des kompletten Feldversuchs 331 Merkmale erzeugt und in die Analyse mit einbezogen.

Abschließend lässt sich feststellen, dass sich der wissenschaftliche Diskurs um die Einsatzmöglichkeiten des Machine Learnings kontinuierlich erweitert. Dies ist zum einen bedingt durch die fortschreitende Entwicklung in Technik und Wissenschaft, welche verschiedene Abläufe zunehmend komplexer und abstrakter werden lassen. Weltweit renommierte Unternehmen investieren enorme Kapazitäten in den Bereich des Machine Learning, um Prozesse mit steigender Komplexität durch Maschinen automatisiert abbilden zu können.

Durch diese Kombination aus, steigenden Ansprüchen sowie Kapazitäten, ergibt sich das folgende Szenario im Hinblick auf zukünftige Analysen: Ermöglicht das Machine Learning zukünftig eine vollständige Transparenz des Finanzmarktes?

5 Fußnoten

  1. 1,0 1,1 Russel/Norvig (2012), S. 22
  2. Lackes/Siepermann (o.J.)
  3. Schaber beschreibt dieses Fallbeispiel in ähnlicher Form in seinem Beitrag zum Science Slam Loeben (2014), es wurde jedoch durch den Autor dem Kontext dieser Arbeit angepasst.
  4. Vgl. Thom (2012), S. 12
  5. S. 283
  6. Vgl. Keller (2000), S. 283; vgl. Thom (2012), S. 30
  7. Vgl. Keller (2000), S. 283
  8. Vgl. Russel/Norvig (2012), S. 811
  9. ebd., S. 811
  10. Vgl. Rojas (1993), S. 3; Vgl. Thom (2012), S. 48
  11. Vgl. Thom (2012), S. 48f; Kinnebrock (1994), S. 14
  12. Vgl. McCulloch/Pitts (1943)
  13. Russel/Norvig (2012), S. 846
  14. Vgl. Thom (2012), S. 59
  15. ebd., S. 59; Kotsiantis & Pintelas (2005), S. 53 bis 59
  16. Linke (2003)
  17. Vgl. Thom (2012), S. 60
  18. Vgl. Russel/Norvig (2012), S. 857
  19. Thom (2012), S. 62
  20. Vgl. ebd., S. 61 f.
  21. ebd., S. 11
  22. ebd., S. 11
  23. Vgl. ebd., S. 11
  24. Vgl. Sperber (2014), S. 1 f.
  25. Vgl. ebd., S. 1 f.
  26. ebd., S. 2
  27. ebd., S. 69
  28. ebd., S. 70
  29. Vgl. ebd., S. 70; Pollert, Kirchner, Polzin (2013), S. 160
  30. Vgl. Sperber (2014), S. 72; Vgl. Heldt (o. J.)
  31. Sperber (2014), S. 72
  32. Vgl. ebd., S. 72
  33. Vgl. ebd., S. 73
  34. ebd., S. 73
  35. ebd., S. 11
  36. Vgl. ebd., S. 11; Pollert, Kirchner, Polzin (2013), S. 440
  37. Vgl. Sperber (2014), S. 11
  38. Vgl. Budzinkski,Jasper,Michler,W. Breuer,C.Breuer (o.J.)
  39. Vgl. Sperber (2014), S. 18 f.
  40. ebd., S. 18
  41. Vgl. ebd., S. 5
  42. Vgl. W.Breuer/C.Breuer (o.J.)
  43. Sperber (2014), S. 5
  44. Vgl. Scharkow (2011), S. 111
  45. ebd., S. 113
  46. Vgl. Thom (2012), S. 14
  47. ebd., S. 23
  48. ebd., S. 26
  49. ebd., S. 27
  50. ebd., S. 73
  51. ebd., S. 73
  52. Vgl. Ehrhardt (2006), S. 3 bis 6
  53. ebd., S. 7
  54. Vgl. ebd., S. 8
  55. ebd., S. 9
  56. Vgl. ebd., S. 8 u. 10
  57. Vgl. Koch (2010), S. 3
  58. Murphy (2003), S. 65
  59. Vgl. Ehrhardt (2006), S. 22
  60. Vgl. Murphy (2003), S. 63
  61. Vgl. Schwager (2013), S. 46
  62. ebd., S. 67
  63. Vgl. ebd., S. 68
  64. Vgl. ebd., S. 67
  65. Vgl. ebd., S. 68
  66. ebd., S. 69
  67. Vgl. Brock (2013), S. 187
  68. Vgl. Murphy (2003), S. 76
  69. ebd., S. 71
  70. ebd., S. 75
  71. Vgl. Ehrhardt (2006), S. 24
  72. Vgl. Scherer (2003), S. 3
  73. Vgl. Heuer (1997), S. 7
  74. Vgl. Crone (2010), S. 168; Vgl. Rey/Wender (2010), S. 15
  75. Vgl. Rey/Wender (2010), S. 15
  76. Vgl. ebd., S. 17
  77. ebd., S. 15 f.
  78. Vgl. ebd., S. 25
  79. Vgl. Scherer (2003), S. 4
  80. Vgl. ebd., S. 25
  81. Vgl. Nakhaeizadeh (1998), S. 6 u. 10; Vgl. Nakhaeizadeh (1998), S. 20 u. 21
  82. Vgl. Swingler (1996), S. 27 f.
  83. Vgl. Gansser/Krol (2015), S. 338
  84. Thom (2012), S. 83
  85. Vgl. Thom (2012), S. 81; Vgl. Park/Irwin (2004), S. 1 bis 18; Schulmeister (2008), S. 1 bis 25
  86. Vgl. Thom (2012), S. 81
  87. Vgl. ebd., S. 82
  88. Vgl. ebd., S. 82 f.
  89. Vgl. Thomsett (2013), S. 2 ff.
  90. Vgl. Gebert/Hüsgen (1995), S. 10 f.; Vgl. Nison (2013), S. 42
  91. Vgl. Thom (2012), S. 85; Vgl. Gebert/Hüsgen (1995), S. 9 ff.; Vgl. Nison (2013), S. 42
  92. Vgl. Murphy (2003), S. 227 f.
  93. Murphy (2003), S. 234
  94. ebd., S. 242
  95. Vgl. ebd., S. 242
  96. Vgl. Thom (2012), S. 104; Vgl. Staar (2011), S. 168
  97. Vgl. Thom (2012), S. 104
  98. Vgl. ebd., S. 115 f.
  99. Vgl. Nakhaeizadeh (1998), S. 11
  100. Vgl. ebd., S. 103 ff.
  101. ebd., S. 126
  102. Vgl. Thom (2012), S. 125 f.; Vgl. Russel/Norvig (2012), S. 549 u. 812
  103. Vgl. Thom (2012), S. 126 f.
  104. ebd., S. 127
  105. Vgl. ebd., S. 126 f.
  106. ebd., S. 128 f.
  107. ebd., S. 129
  108. Vgl. Nakhaeizadeh (1998), S. 8
  109. Thom (2012) S. 131
  110. Vgl. ebd., S. 130 bis 133
  111. Vgl. ebd., S. 135 f.
  112. Vgl. ebd., S. 130 bis 133
  113. Vgl. Wiedemann (1999), S. 76 f.; Thom (2012), S. 134 ff.
  114. Vgl. Thom (2012), S. 143
  115. ebd., S. 143; Vgl. Tabelle 3.2
  116. Vgl. ebd., S. 143
  117. ebd., S. 143
  118. Vgl. ebd., S. 144
  119. ebd., S. 145
  120. ebd., S. 144 Tabelle 5.1
  121. Vgl. ebd., S. 197 f.
  122. ebd., S. 198
  123. Vgl. ebd., S. 200 f.
  124. ebd., S. 200 f.
  125. ebd., S. 203

6 Quellen- und Literaturverzeichnis

Verweis Literatur / Quelle
Thom (2012) Thom, Rene: Vorhersage kurzfristiger Aktienkursrenditen: Entwicklung eines maschinellen Lernverfahrens, 1. Auflage, JOSEF EUl VERLAG GmbH, Lohmar – Köln 2012
Murphy (2003) Murphy, John J.: Technische Analyse der Finanzmärkte, 2. Auflage, München 2003
Scherer (2003) Scherer, Andreas: Neuronale Netze Grundlagen und Anwendungen, Braunschweig/Wiesbaden 2003
Rey/Wender (2010) Rey, Günter Daniel / Wender, Karl F: Neuronale Netze: Eine Einführung in die Grundlagen, Anwendungen und Datenauswertung, 2. Auflage, 2010
Nison (2013) Nison, Steve: Technische Analyse mit Candlesticks, 6. Auflage, 2013
Thomsett (2013) Thomsett, Michael C.: Visual Guide: Chartanalyse mit Candlesticks, 2014
Wiedemann (1999) Wiedemann, Christine: Neuronale Netze und Fuzzy-Logik in der Neuprodukt-Erfolgsfaktorenforschung, 1999
Ehrhardt (2006) Ehrhardt, Marcel: Fundamentalanalyse und technische Analyse der Aktienentwicklung, 09.05.2006, online im Internet: http://www.stendal.hs-magdeburg.de/project/konjunktur/Fiwi/vorlesung/6.Semester/vorlesungsmaterial/T8%20Fundamentalanalyse.pdf (05.06.2016 20:06)
Schwager (2013) Schwager, Jack D.: Schwager über Technische Analyse, FinanzBuch Verlag, 2013
Brock (2013) Brock, Jörg: Internationale Anlagestrategie: Rationale Entscheidungen durch technische Analyse, Springer-Verlag, 2013
Koch (2010) Koch, Matthias: Die Fundamentalanalyse zur Bewertung von Aktien, GRIN Verlag, 1. Auflage 2010
Nakhaeizadeh (1998) Gholamreza Nakhaeizadeh: Data Mining Theoretische Aspekte und Anwendungen, Physica-Verlag, 1995
Gebert/Hüsgen (1995) Gebert, Thomas / Hüsgen, Paul: Candlestick-Charttechnik, Börsenbuch-Verlag, 1995
Heuer (1997) Heuer, Jürgen: Neuronale Netze in der Industrie, Gabler Verlag, Deutscher Universitäts-Verlag, Wiesbaden 1997
Crone (2010) Crone, Sven F.: Neuronale Netze zur Prognose und Disposition im Handel, 1. Auflage, Gabler Verlag, Springer Fachmedien Wiesbaden GmbH 2010
Staar (2011) Staar, K.C.: The Fundemental Guide to Getting Started and Succeeding With Your Investments, 2011
Scharkow (2011) Scharkow, Michael: Automatische Inhaltsanalyse und maschinelles Lernen, Dissertation, Universität der Künste Berlin 2011
Sperber (2014) Sperber, Herbert: Finanzmärkte: Eine praxisorientierte Einführung, Schäffer-Poeschel Verlag, Stuttgart 2014
Russel/Norvig (2012) Russel, Stuart / Norvig, Peter: Künstliche Intelligenz: Ein moderner Ansatz, Pearson Deutschland, München 2012
Keller (2000) Keller, Hubert B.: Maschinelle Intelligenz: Grundlagen, Lernverfahren, Bausteine intelligenter Systeme, Friedr. Vieweg & Sohn Verlagsgesellschaft mbH, Braunschweig/Wiesbaden 2000
Rojas (1993) Rojas, Raul: Theorie der neuronalen Netze: Eine systematische Einführung, Springer-Verlag, Berlin Heidelberg 1993
Swingler (1996) Swingler, Kevin: Applying Neural Networks: A Practical Guide, Morgan Kaufmann Publishers In, 1996
Gansser/Krol (2015) Gansser, Oliver / Krol, Bianca: Markt- und Absatzprognosen Modelle – Methoden – Anwendung, Springer Gabler Verlag, Wiesbaden 2015, FOM Edition
Schulmeister (2008) Schulmeister, Stephan: Profitability of Technical Stock Trading: Has it Moved from Daily to Intraday Data? , Austrian Institute of Economic Research, Vienna 2008
Park/Irwin (2004) Cheol-Ho Park/Scott H. Irwin: The Profitability of Technical Trading Rules in US Futures Markets: A Data Snooping Free Test, Austrian Institute of Economic Research, St. Louis Missouri 2004
Kinnebrock (1994) Kinnebrock, Werner: Neuronale Netze: Grundlagen, Anwendungen, Beispiele, 2. Auflage, R. Oldenbourg Verlag, München Wien 1994
Lackes/Siepermann (o.J.) Lackes, Richard / Spiermann, Markus; Springer Gabler Verlag (Herausgeber): Gabler Wirtschaftslexikon, Stichwort: maschinelles Lernen, online im Internet: http://wirtschaftslexikon.gabler.de/Archiv/77372/maschinelles-lernen-v8.html (02.06.2016 21:12)
Heldt (o. J.) Heldt, Cordula; Springer Gabler Verlag (Herausgeber): Gabler Wirtschaftslexikon, Stichwort: Investment Banking, online im Internet: http://wirtschaftslexikon.gabler.de/Archiv/5016/investment-banking-v9.html (02.06.2016 21:21)
Budzinkski,Jasper,Michler,W. Breuer,C.Breuer (o.J.) Budzinski, Oliver;Jasper, Jörg; Michler, Albrecht; Breuer, Wolfang; Breuer, Claudia; Springer Gabler Verlag (Herausgeber): Gabler Wirtschaftslexikon, Stichwort: Kapitalmarkt, online im Internet: http://wirtschaftslexikon.gabler.de/Archiv/3612/kapitalmarkt-v7.html (02.06.2016 21:23)
W.Breuer/C.Breuer (o.J.) Breuer, Wolfgang / Breuer, Claudia; Springer Gabler Verlag (Herausgeber): Gabler Wirtschaftslexikon, Stichwort: Fristentransformation, online im Internet: http://wirtschaftslexikon.gabler.de/Archiv/6260/fristentransformation-v7.html (02.06.2016 21:26)
Pollert, Kirchner, Polzin (2013) Pollert, Achim; Kirchner, Bernd; Polzin, Javier Morato: Duden Wirtschaft von A bis Z: Grundlagenwissen für Schule und Studium, Beruf und Alltag, 5. Auflage, Bibliographisches Institut, Berlin 2013
McCulloch/Pitts (1943) McCulloch, Warren S. / Pitts, Walter: A logical calculus of the ideas immanent in nervous activity, in: Bulletin of Mathematical Biophysics, 1943, Ausgabe 5, S. 115-137
Linke (2003) Linke, Andreas: Spam oder nicht Spam?: E-Mail sortieren mit Bayes-Filtern, in: c’t, 2003, Heft 17, S. 150-153
Schaber (2014) Schaber, Felix: Maschinelles Lernen (Science Slam Leoben 2014), 09.01.2015, online im Internet: https://www.youtube.com/watch?v=1uXDI-Nc8QM (05.06.2016 20:16)

7 Abkürzungsverzeichnis

Abkürzung Bedeutung
EZB Europäische Zentralbank
KI Künstliche Intelligenz
RSI Relative Stärke Index
KA Kapitalanbieter
KN Kapitalnachfrager

8 Tabellenverzeichnis

Tabelle Nr. Quelle
3.1 Gewichtungsbeispiel angeordneter Neuronen
3.2 Aufteilung Featuresubsets
3.3 Beschreibung der Klassifikationsvariablen

9 Abbildungsverzeichnis

Abbildung Nr. Abbildung
2.1 Die drei Säulen des Lernens
2.2 Modell eines Neurons
2.3 Anwendungsgebiete des maschinellen Lernens
2.4 Kapitalvermittlung auf Finanzmärkten
2.5 Wichtige Akteure des Finanzmarktes
2.6 Grundprinzip von Investmentfonds
2.7 Emission und Handel von Wertpapieren
2.8 Anzahl der Durchgänge n eines Zufallsexperiments
2.9 Gegenwart- & Barwertrechnung
2.10 PER Berechnung
2.11 Verhältnis Global, Branche und Unternehmen
2.12 Die drei definierten Trends
2.13 Primär- Sekundär- und Tertiärtrend
2.14 Darstellung von Unterstützung und Widerstand
2.15 Darstellung eines Trendbruchs
2.16 Darstellung eines Rollentausches zwischen Widerstand und Unterstützung
3.1 Aufbau eines neuronalen Netzes mit Gewichtungsbeispiel
3.2 Aufbau eines neuronalen Netzes mit Bias-Neuronen
3.3 2-zu-1-Aktiensplit
3.4 Candlestickchart
3.5 Vergleich zwischen Linienchart und Candlestickanalyse
3.6 Beispiel eines Momentums
3.7 RSI Formel
3.8 Abbildung der Vertikalen Abgrenzung / der „Grauzone“
3.9 Abbildung der Anhebung der Klassifizierungsgrenze zur Klasse Eins
3.10 Vergleich der Klassifikatoren

 

Quelle: http://winfwiki.wi-fom.de/index.php/Anwendung_des_Machine_Learning_bei_der_Analyse_von_Kapitalm%C3%A4rkten

Der Inhalt ist verfügbar unter der GNU Free Documentation License 1.2.

Lizenz Aufmacherbild:

Digital Finance – Finanzwelt im Wandel

Reportage: Die Bankenlandschaft ist im Umbruch. Um im Wettbewerb bestehen zu können und den Bedürfnissen des digitalen Kunden gerecht zu werden, gehen Banken neue Partnerschaften ein.

Durch die langanhaltende Niedrigzinsphase steigen die Bankgebühren. Wer diese gerade vor der aufstrebenden Gruppe der Millenials rechtfertigen will, muss neue innovative Services bieten. FinTechs wandeln sich so von einstigen Gegenspielern zu geschätzten Partnern. Ohne aufwendige Entwicklung werden schnell neue Leistungen, wie Roboadvisory, Social-Trading und Crowdfinancing, integriert. Die eigene Forschung, etwa im Bereich der Blockchain-Technologie sollte jedoch nicht vernachlässigt werden!

Im Rahmen einer eigenständigen Reportage gibt die TREND REPORT-Redaktion in Fallbeispielen, Interviews und Expertenbeiträgen dem Thema „Digital Finance“ Raum und vermittelt einen Überblick über die wichtigsten digitalen Trends rund um das Thema Finanzen.

TREND REPORT ist die neue Wirtschaftszeitung, die aktuelle und zukünftige Trends zum Thema macht. Wir suchen nach neuen Anzeichen, die Wendepunkte im Zeitgeist markieren und wir verstehen uns als Partner der Wirtschaft. TREND REPORT liegt als Fremdbeilage der Gesamtauflage des Handelsblattes bei.

Themen und Inhalte:

FinTech/InsurTech/ PropTech

Innovative  Lösungen in traditionellen Märkten

Crowdfinancing

Start-Up-, Projekt, oder Privatkreditfinanzierung durch die Investorencrowd

Social-Trading

Profitieren und Lernen vom Wissen der anderen

Roboadvisors

Algorhytmen helfen bei der Kapitalanlage.

Blockchain

Die Technologie offenbart ihr wahres Potential.

Mobile Banking

24/7/365: Banking jederzeit und überall

Digitales Onboarding

Kontoeröffnung in fünf Minuten

PSD2

Das Monopol der Banken auf  Kontoinformation und Zahlungsdienstleistung fällt 2018

Venture Capital

Frisches Kapital für kapitale Ideen

 

Hier können Sie das vollständige Themenexposée herunterladen

Hier geht es zu den Mediadaten