Einbruchrisiko 100 Prozent, Tragweite: Ruin

Autor: Kai Grunwitz*

Kein Manager kann mehr so tun, als kenne er nicht Wahrscheinlichkeit und Tragweite eines IT-Sicherheitsangriffs. Um es auf den Punkt zu bringen: Das Risiko eines Angriffs liegt bei praktisch 100 Prozent, die Tragweite ist teilweise sogar die Gefährdung der Unternehmensexistenz. Diese Fakten können nicht oft und nicht plakativ genug präsentiert werden.

Um sie zu ignorieren, müssten Manager jeglichem unternehmerischen, medialen und sozialen Leben entsagen: Eine Sicherheitsstudie nach der anderen belegt die Gefahr, auch Publikumsmedien berichten über IT-Angriffe, und so diskutiert auch der Familien- und Freundeskreis darüber.

Tatsache ist: Anzahl und Qualität der IT-Angriffe nehmen täglich zu, und genauso rasant steigt die Abhängigkeit von Daten, so dass die IT-Sicherheit an erster Stelle auf jeder Unternehmens-Agenda stehen sollte. Aber Manager in Topetagen und IT-Abteilungen agieren in eklatanter Weise entgegen jeglicher Logik – und vernachlässigen sie.

Eine Studie von NTT Security (1) bestätigt diese Entwicklung: Die große Mehrheit der befragten Business-Entscheider erwartet in absehbarer Zeit einen Einbruch, der die IT-Sicherheit ihres Unternehmens kompromittiert; gleichzeitig sind die meisten Befragten der Meinung, ihre Daten seien nicht ausreichend geschützt.

Warum in aller Welt entsteht eine solche paradoxe Situation?

Es gibt nachvollziehbare – wenn auch nicht immer entschuldbare – Gründe. In kleineren und mittleren Unternehmen etwa herrscht bei Managern die Meinung vor, ihre Daten seien für Hacker oder Cyberangreifer zu unwichtig. Ein Irrglaube, natürlich. Es mag sein, dass einige dieser Betriebe über weniger schützenswertes geistiges Eigentum verfügen als die großen – dies sei einmal dahingestellt. Alle aber verfügen über Kunden- und Mitarbeiterdaten, die auf keinen Fall in falsche Hände oder in die Öffentlichkeit geraten dürfen; und in Zeiten von Ransomware, die den Zugriff auf Daten mit der einfachen Einschleusung von Trojanern verhindert, sind auch die kleinsten Unternehmen eine leicht zu erpressende Beute. Ihnen bleibt nichts anderes übrig, als Lösegeld zu zahlen, um wieder auf ihre Daten zugreifen zu können.

Viele IT-Manager – nicht nur in kleinen, auch in größeren Unternehmen – gehen davon aus, sie seien noch nicht angegriffen worden. Dabei definieren Sicherheitsexperten bekannterweise zwei Gruppen von Unternehmen: diejenigen, die bereits Opfer von IT-Attacken waren – und diejenigen, die es noch nicht wissen. Würden IT-Verantwortliche die Logs der Zugriffe auf die eigene Infrastruktur auswerten, könnten sie zahlreiche Hinweise finden. Aber Zeit ist knapp in den IT-Abteilungen, und der Aufwand, die gigantischen Datenmengen zu analysieren, ist hoch. Und andere wichtige Aufgaben vom Helpdesk über die Administration bis hin zur Applikationsentwicklung (die Abteilungen machen immer mehr Druck) brauchen zeitnahe Betreuung und erlangen deshalb wider besseres Wissen höhere Priorität. Die Situation ist zum Haareraufen.

Die unglückliche Organisation in den meisten Unternehmen macht die Sache nicht besser. Historisch sind IT-Subbereiche wie Netzwerke, CRM oder ERP, die kaum miteinander reden und ihr eigenes Sicherheitssüppchen kochen, gewachsen. Diese Fokussierung auf Teilbereiche der IT führt dazu, dass zwar regelmäßig an vielen Sicherheitsstellschrauben gedreht wird, der Gesamtaufwand aber kaum effizient sein kann. Die Sicht von oben fehlt und eine allumfassende, integrierte Sicherheitsstrategie, die dafür dringend notwendig wäre, ist so gut wie nicht umsetzbar.

Am Ende raubt das zermürbende Re-agieren auf die immer zahlreicheren, aggressiveren und kreativeren Attacken den IT-Abteilungen die Luft zum Atmen. Hacker geben den Takt vor, und Unternehmen hecheln mangels adäquater Technologie und ausreichender Budgets hinterher, ohne je das Rennen gewinnen zu können.

Ja, da ist noch die Frage der Budgets. Für die meisten Manager in den Vorstandsetagen hat die Einhaltung der IT-Sicherheit zwar eine irgendwie „vorrangige“ Priorität, wie die NTT-Security-Studie zeigt, zumal seit der Snowden-Affäre, die dazu beigetragen hat, Sicherheit auch ins Bewusstsein der IT-fernen Unternehmenslenker zu rücken. Soweit die gute Nachricht.

Die schlechte: Die Implikationen einer mangelnden Sicherheit werden noch immer nicht vollständig begriffen. Das mag auch daran liegen, dass Führungskräfte kaum mit Details über Einbruchsversuche konfrontiert werden. Wenn schon die IT-Abteilung harte Zahlen über Sicherheitsattacken nicht zusammenstellt, weil sie ihre Logs nicht auswertet, wie sollen solche Entscheidungshilfen am Ende auf den Schreibtischen der oberen Etagen landen?

Kein Wunder also, dass die Chefetagen trotz fortschreitender Bewusstseinsänderung notwendige IT-Budgets nicht nach Belieben freigeben – zumal nach jahrelanger Kostensenkung in der IT. Mit mäßigen Budgets kann die IT aber eben auch nicht zaubern.

Größtmögliche Transparenz ist hier der Schlüssel, und die Sicherheitsverantwortlichen in den Unternehmen müssen tätig werden – und zwar an zwei Fronten. Erstens müssen sie mit den Kollegen der anderen IT-Bereiche intensiv kommunizieren. Das Ziel: der Aufbau einer integrierten IT-Sicherheitsabteilung, denn nur eine solche Abteilung bedeutet für die Gesamtsicherheit eines Unternehmens einen Quantensprung. Konsequenterweise heißt das, einen Teil der eigenen Sicherheitsverantwortung abzugeben. Das ist für viele kein einfacher Schritt.

In einer konzertierten Aktion müssen die Sicherheitsexperten zweitens die Entscheider in den Chefetagen über die tatsächlichen Risiken aufklären: mit regelmäßigen, detaillierten Reports (Log-Analysen!), aber auch mit konkreten Szenarien, die den Worst-Case darstellen. Nur so lassen sich mehr Budgets für moderne Technologie, mehr Manpower, adäquate Dienstleistungen und eine effizientere Sicherheitsorganisation freischalten.

Dabei ist die Frage nach den Kosten ohnehin falsch. Es geht nicht darum, was IT-Sicherheit kostet, sondern was der Preis ist, wenn sie versagt. Hinzu kommt, dass Unternehmen Sicherheit als Wettbewerbsfaktor nutzen können und in der Lage sind, damit ein echtes Differenzierungsmerkmal (zumal in der Digitalen Transformation) zu schaffen. Angesichts der steigenden Bedeutung und Vertraulichkeit von Daten ist ein Unternehmen mit einer sicheren IT als Geschäftspartner allen anderen auf jeden Fall vorzuziehen.

(1) https://www.nttcomsecurity.com/de/landingpages/risk-value-2016/

 

* Kai Grunwitz ist Senior Vice President EMEA bei NTT Security

Weltbeste Arbeitgeber gesucht!

 

Troisdorf, GER // Fairfax, VA – 25. April 2017 – Zum zweiten Mal prämieren die jährlich ausgelobten Stevie Awards for Great Employers die besten Arbeitgeber weltweit. Bewerben können sich ganze Unternehmen, HR-Teams und HR-Manager sowie Dienstleister, die Unternehmen darin unterstützen, herausragende Arbeitsplätze zu schaffen. Während die reguläre Teilnahmefrist erst am 5. Juni 2017 endet, profitieren Schnellentschlossene noch bis zum 3. Mai 2017 von reduzierten Teilnahmegebühren.

Ausgezeichnet werden Leistungen, neue Produkte und Dienstleistungen im Personalwesen unter anderem in den Kategorien „Employer of the Year“ in 35 Branchen, „HR Achievement“, „HR Individual“ für herausragende Leistungen von Einzelpersonen, „HR Team“ für Teamleistungen, „New Product & Services“ sowie „Solution Provider“ für beispielsweise Beratungsunternehmen. Teilnahmeberechtigt sind alle Unternehmen weltweit. Bewerbungsrelevant sind alle Leistungen und Projekte, die seit Januar 2016 erbracht wurden.
Die Gewinner dieses internationalen Benchmarkings werden dann am 16. August 2017 bekanntgegeben. Die feierliche Preisverleihung findet am 29. September 2017 im Marriott Marquis Hotel in New York statt.

Informationen, wie sich Unternehmen am besten bei den 2. Stevie Awards for Great Employers bewerben, finden Sie auf der Awards-Webseite.

Eine Übersicht über die Gewinner 2016 finden Sie hier.

Wir freuen uns über Ihre Veröffentlichung. Für Rückfragen, weitere Informationen, Bildmaterial oder Interviewpartner stehen wir Ihnen selbstverständlich gerne zur Verfügung.

Catrin Beu
Communications Manager

Die Stevie Awards in Europa
c/o Catrin Beu
Kommunikation im Quadrat
Telefon: +49 228 629 968 87
E-Mail: catrin@stevieawards.com

Über die Stevie Awards
Stevie Awards werden im Rahmen von sieben Programmen verliehen: Die American Business Awards, die German Stevie Awards, die International Business Awards, The Stevie Awards for Women in Business, die Stevie Awards for Sales & Customer Service, die Stevie Awards for Great Employers und die Asia-Pacific Stevie Awards. Organisationen jeder Art und Größe, aber auch Einzelpersonen aus der Wirtschaft werden für ihre herausragenden Leistungen am Arbeitsplatz weltweit gewürdigt. Weitere Informationen über die Stevie Awards erhalten Sie unter www.StevieAwards.com. Folgen Sie den Stevie Awards auf Twitter @TheStevieAwards.

 

Quelle Aufmacherbild: https://pixabay.com/de/human-resources-rekrutierung-1917296/

 

Drei Trends, die der Geldtransfermarkt verschlafen hat

Von Dora Ziambra, Head of Business Development bei Azimo

 

1) Nutzerfreundlichkeit

Wer auf dem traditionellen Weg schon mal Geld verschickt hat, der weiß wie umständlich der Prozess ist. Vor 20 Jahren war es für die Menschen noch normal, zahlreiche Dokumente auszufüllen, um Geld zu verschicken. In Zeiten des Internets kann man das keinem mehr nachvollziehbar begründen – genauso wenig wie Banken erklären können, warum digitales Geld mehrere Tage braucht, um auf dem Konto des Kunden zu erscheinen.

Das Internet hat die Nutzerfreundlichkeit zahlreicher Dienste verbessert. Wieso können wir ein ganzes Haus im Internet planen und zusammenstellen, aber nicht 1.000 Euro nach Venezuela schicken? Die einfache Handhabung, die wir von unserem Smartphone kennen, wollen wir auch für unsere Geldgeschäfte haben. Wir bei Azimo haben uns gefragt, warum man nicht einfach Geld genauso leicht verschicken kann wie eine SMS – und haben die Frage dann beantwortet.

2) Mobilität

Vor allem in den Schwellenländern wächst die Zahl der Menschen, die Smartphones besitzen rapide. Viele überspringen dabei auch den klassischen Schritt über den Desktop PC wie in den Industrieländern. Ein Fall machte mir das besonders klar: In Aserbaidschan sprach ich mit einem Schäfer über seine Erfahrungen mit dem Internet. Seine Antwort: „Internet? Kenn ich nicht, brauch nicht.“ Einige Sekunden später holte er sein Smartphone heraus und postete etwas auf Instagram.

Das klassische Internet wie wir es vom Desktop kennen, gibt es in Schwellenländern kaum. Dort steigen Nutzer sofort mit dem Smartphone ein und ihr „Zugang“ zum Internet ist nicht über den klassischen Browser, sondern über Apps. 2014 besaßen fast zwei Milliarden Menschen ein Smartphone – Tendenz steigend. In Ländern mit geringerem Einkommen haben mehr Menschen ein mobiles Endgerät als einen Stromanschluss.Das Smartphone wird immer mehr zur Brieftasche (auch weil es sicherer ist als ein klassisches Portemonnaie) und hat in ärmeren Regionen das Bankkonto bereits teilweise abgelöst. Für uns war es deshalb naheliegend diesen Trend zu nutzen: Mit Azimo kann man Geld direkt auf ein Prepaid-Handy in über 100 Länder weltweit verschicken, wozu man nur die Handynummer des Empfängers braucht. Eine Funktion, die eigentlich naheliegend scheint, aber bisher von den etablierten Playern weitestgehend vernachlässigt wurde.

3) Kosteneffizienz

Mit der starken Vernetzung und Digitalisierung unserer Welt sind in zahlreichen Branchen die Preise gefallen. Umso mehr stößt es deshalb auf Unverständnis, dass man für eine Geldsendung nach Russland fast zehn Prozent an Gebühren bezahlen muss. Die traditionellen Geldversender arbeiten mit dem Agentensystem und haben deshalb zahlreiche Instanzen, durch die das Geld läuft – und jede Instanz bekommt ein Stück vom Kuchen ab. Das erklärt die hohen Kosten.

Dabei kann man dank moderner Technologie das Geld ohne die vielen Mittler direkt verschicken und damit den Preis gravierend senken. Zwar haben viele Geldversender ihre Preise schon gesenkt, doch das veraltete Agentenmodell gibt wenig Spielraum nach unten.

Über Azimo

Das Londoner Fintech-Unternehmen Azimo bietet digitale, mobile Lösungen für den Geldtransfer ins Ausland an. Azimo wurde 2012 mit dem Ziel gegründet, den globalen Geldtransfermarkt zugunsten von Privatnutzern zu verändern. Der Service ermöglicht es heute, Geld in über 190 Länder weltweit in mehr als 70 Währungen bequem und zu geringen Kosten zu versenden. Dank der mobilen Azimo-App kann das Geld schnell und sicher per Smartphone und Tablet transferiert werden. Azimo steht für Ehrlichkeit und Transparenz, für gesellschaftliche Verantwortung und Engagement.

Sicherheit: Sowohl unsere Webseite, als auch unsere App nutzen die Technik des „MasterCard SecureCode“ und „Verified by Visa“, um doppelte Sicherheit zu gewährleisten. Wir nutzen ausgefeilte Multipunkt-Technologie, um sicherzustellen, dass alle Transaktionen die „Know Your Customer“-Richtlinien (KYC) und regulatorischen Prüfungen, inklusive der OFAC-Blacklist durchlaufen.

Regulierung: 

Financial Conduct Authority (FCA) Azimo Ltd ist durch die Financial Conduct Authority (FCA) unter den Bestimmungen des Elektronischen Geldverkehrs 2011 (FRN 900220) autorisiert, elektronische Geldtransfers zu bearbeiten und auszuführen.

HM Revenue and Customs (HMRC) Azimo ist auch bei der britischen Steuerbehörde HMRC als Unternehmen für Gelddienstleistungen registriert (Registernummer 12676497).

Informations Commissioners Office (ICO) Azimo ist für den Umgang mit personenbezogenen Daten bei der Britischen Datenschutzbehörde ICO (Ref ZA013054) eingetragen.

AUKPI Azimo ist eingetragenes Mitglied des Britischen Handelsorgans für Zahlungsinstitutionen und Agenturen, der United Kingdom Money Transfer Association.

IAMTN Azimo ist eingetragenes Mitglied des internationalen Verbandes für Zahlungsinstitutionen und Agenturen, International Association of Money Transfer Networks. IAMTN arbeitet mit der Regierung und Regulierungsbehörden zusammen und vertritt die Branche weltweit.

Website: https://azimo.com/de/

Facebook: https://www.facebook.com/azimomoney

Twitter: https://twitter.com/Azimo

 

Über Dora Ziambra, Head of Business Development, Azimo

Dora ist bereits seit 2014 Teil des Azimo-Teams und sie bringt ausgepägte Erfahrungen aus dem Finanzsektor mit. Sie ist begeistert von der Vielfalt innerhalb der FinTech-Branche und sie ist neben ihrer Arbeit Coach für die Cartier Women’s Initiative Awards. Nachdem sie in früheren Rollen stets eine von nur sehr wenigen weiblichen Tradern war, ist sie heute eine verfechterin von Gleichberchtigung in der modernen Arbeitswelt.

Als Head of Business Development ist Dora maßgeblich daran beteiligt, das Partner-Netzwerk von Azimo in über 190 Ländern aufzubauen und das Geschäft in neuen Märkten zu etablieren. Es ist eine stetig wachsende Aufgabe, da das Unternehmen rasant wächst – zu ihren täglichen Aufgaben gehören neben der Beziehungen zu den Partnerbanken und dem Aufbau von strategischen Partnerschaften auch das Fundraising und die Organisation der internationalen Expansion.

Vor Azimo, hat Dora ihren fairen Anteil der Luftmeilen während ihrer globalen Karriere aufgeladen. Sie begann als Derivatehändlerin in Chicago, baute ihr eigenes Optionshandelsgeschäft in Deutschland, arbeitete im internationalen Bankgeschäft in London und Frankfurt und schloss sich der Gründungsberatung in Afrika an. Unterwegs hat sie für EZB, Deutsche Börse und PayPal gearbeitet.

Dora wurde als eine der Innovate Finance Frauen in FinTech 2015 und gewann Best Pitch bei einem UKTI FinTech Veranstaltung in Singapur. Sie hält eine BA vom Bryn Mawr College und einen MBA von INSEAD.

Twitter: @Doraziexplora

LinkedIn: https://www.linkedin.com/in/doraziambra

 

Lizenz Aufmacherbild: Azimo Ltd.

 

 

Logistik 4.0 – IT treibt Logistik

Reportage: Material- und Informationsfluss müssen im Zeitalter der Digitalisierung neu ausgerichtet werden. Logistik und IT als Innovationstreiber für den Wirtschaftsstandort Deutschland

 

Keine Industrie 4.0 ohne Logistik 4.0.
Die übergreifende Automatisierung und Optimierung, von Waren- und Informationsflüssen in der Logistik wird zur Pflicht, will man den Herausforderungen, die M-Commerce, IoT oder Same-Day-Delivery-Konzepte mit sich bringen, bewältigen.

Die TREND-REPORT-Redaktion zeigt auf wie sich die Logistik-Branche im Zuge der Digitalisierung verändert. Ausgelöst durch die Individualisierung von Produktion und Dienstleistung ebenso wie durch die Globalisierung steigt der logistische Aufwand in Zukunft überproportional. Erfolgreiche Zustellsysteme im E-Commerce und M-Commerce basieren auf einer umfassenden Logistik- und IT-Kompetenz. Unternehmen, die nicht auf die Verbindung von IT und Logistik fokussieren,
werden mittelfristig aus dem Wettbewerb ausscheiden

TREND REPORT ist die aktuelle Wirtschaftszeitung, die zukünftige Trends zum Thema macht. Wir suchen nach neuen Anzeichen, die Wendepunkte im Zeitgeist markieren und verstehen uns als Partner der Wirtschaft. TREND REPORT liegt als Fremdbeilage der Gesamtauflage des Handelsblattes bei.

 

Themen und Inhalte:

Logistik-IT trifft Industrie 4.0
Die neue Führungsrolle der Logistik in der Informationstechnologie.

 

IT und Intralogistik
Effizienzsteigerung durch verbesserte Kommunikation von Mensch und Maschine

 

Supply Chain Management
Optimierte Planung und Betrieb von Logistiknetzwerken für mehr Transparenz

 

Vernetzung und Integration
Cyber Physical Systems

 

Multichannel-Fulfillment
Erfolgskomponenten für den E-Commerce

 

E-Logistik-Lösungen
ERP-/PPS Systeme, SCM-Systeme, Sicherheitssysteme, TMS-Systeme, WMS-Systeme, AutoID-Systeme, Barcode, RFID, Sensornetzwerke

 

E-Commerce und M-Commerce
Erfolgreiche Zustellsysteme im E-Commerce und M-Commerce

 

Nachhaltigkeit logistischer Netzwerke
Engagement durch Innovationen

 

Hier können Sie das vollständige Themenexposée herunterladen

Hier geht es zu den Mediadaten

 

Bildquelle / Lizenz: Bildmotiv Copyright:
Shutterstock / ecspelliarmus

 

Mobile Economy

Das Smartphone hat sich als Treiber einer digitalisierten Gesellschaft erwiesen. Die Reportage sensibilisiert für mobiles Arbeiten und Leben.

Das Smartphone hat wie kaum ein anderes Werkzeug die Digitalisierung vorangetrieben. Nun kommt die nächste Ausbaustufe: Chatbots bringen „künstliche Intelligenz to go“ und industrielle Anwendungen profitieren von Pre-5G-Diensten. Im Kontext unseres Titelthemas „Die vernetzte Gesellschaft“ portraitieren wir den Nutzen mobiler Dienste und Services für Wirtschaft und Gesellschaft aus verschiedenen Perspektiven. Im Fokus stehen neue Geschäftsmodelle und Dienste, die den digitalen Reifegrad in den Unternehmen stärken. In Fallbeispielen und Interviews präsentieren wir neue Tech-nologien, die sich im aktuellen Zeitgeist widerspiegeln.

Wir diskutieren mit Experten aus Wissenschaft und Wirtschaft über die zunehmende Vernetzung durch das Smartphone im Zeitalter von Big Data als Treiber einer Gesellschaft im digitalen Wandel.

Themen und Inhalte:

Mobile only
Anwendungen für mobile Geschäftsprozesse

Mobiles Arbeiten und Leben
Das Smartphone ist zum Synonym für ein von Mobilität geprägtes Leben geworden.

Pre-5G & IoT
Industrielle Anwendungen über mobile Netze

Wirtschaft und digitale Sicherheit
Was passiert, wenn nichts mehr geht? IT-Security und Netzneutralität im Fokus

„Künstliche Intelligenz to go“
Chatbots und digitale persönliche Assistenten als Missing-Link für die App-Economy?

Vernetzte Mobilitätskonzepte
Von E-Mobility bis Carsharing: Die App im Zentrum

Digital Lifestyle
Smart Home, Wearables & Co.

Think new
Geschäftsmodelle via Smartphone

Digitale Ökosysteme
Unverzichtbar für den Handel: digitale Wertschöpfungskette für physische Produkte

Hier können Sie das vollständige Themenexposée herunterladen

Hier geht es zu den Mediadaten

Bildquelle / Lizenz: Bildmotiv Copyright: AOK BV; fotolia.com: Lukas Gojda; Bitte Urheberrechte beachten

 

 

Vernetzte Mobilitätskonzepte

Reportage: Wie wirkt sich die Digitalsierung auf die Mobilität in Zukunft aus und mit welchen Bedingungen müssen sich Konzepte auseinandersetzen? Gesucht wird das verbraucherorientierte Mobilitätsverständnis.

Urbane Lebensräume gewinnen immer stärker an Attraktivität. Wachsende Städte gehen mit wachsendem Verkehr einher. Im Kontext der nächsten TREND-REPORT-Ausgabe hat die Redaktion den interdisziplinären Schwerpunkt „Die vernetzte Mobilität“ mit dem Ziel gesetzt, die Digitalisierung und ihren Nutzen für Staat, Wirtschaft und Gesellschaft aus verschiedenen Perspektiven zu thematisieren.

In Fallbeispielen und Interviews präsentieren wir neue Geschäftsmodelle und Technologien, die im Trend liegen und sich im aktuellen Zeitgeist widerspiegeln. Wie wirken sich „Car-Sharing-Modelle“ und das „Internet der Dinge“ aus? Und mit welchen Faktoren muss sich eine nachhaltige Mobilität der Zukunft auseinandersetzen? Diese und weitere spannende Fragen diskutiert die Redaktion mit Experten aus Wissenschaft und Wirtschaft.

 

Themen und Inhalte:

 

Sharing Economy
Teilen statt besitzen – Carsharing & Co.

 

Vorbildliche Infrastrukturen:
Städte und Kommunen mit neuem Mobilitätsverständnis und Elektro-Trends im öffentlichen Nahverkehr.

 

Connected Cars
Das Marktvolumen für Connectivity-Dienste verfünffacht sich bis 2020.

 

E-Mobility
Elektromobilität und alternative Konzepte

 

Fahrzeugbau der Zukunft
Immer leichter für mehr Effizienz

 

Flotten- und Fuhrparkmanagement
Business-Carsharing u. virtuelle Flotten

 

Finanzierung der Mobilität
Autobanken online

IoT & Telematik
High-Tech-Strategien für den Standort Deutschland

 

Mit dem E-Bike ins Büro
Innovative Mobilitätskonzepte für agile Mitarbeiter

 

Hier können Sie das vollständige Themenexposé herunterladen

Hier geht es zu unseren Mediadaten

„Räume für das Arbeiten von morgen“

Die TREND REPORT-Redaktion sprach mit Uli und Uwe Kessel, Geschäftsführer des Rotonda Business Clubs sowie dem Gründer und Geschäftsführer von Design-Offices, Michael Schmutzer. Beide Unternehmen machen sich in einer Allianz stark für die Begegnung. Der Rotonda Business Club ist ein „physisches“ soziales Netzwerk – also weit mehr als „nur“ ein Co-Working-Space. In den von Design Offices gestalteten Räumen finden Menschen zusammen und arbeiten gemeinsam an Orten, die inspirierend ausgestaltet sind.

Was bedeuten „Räume für das Arbeiten von morgen“?
Uli Kessel: „Auch in Zukunft wird Arbeit in Räumen stattfinden. Mit unserem Claim „Wir geben Beziehungen Raum“ meinen wir deshalb tatsächlich auch die physikalischen Räume, nämlich inspirierende Meeting-, Lounge- und Veranstaltungsräume. Dort kommen auch im digitalen Zeitalter echte Menschen an echten Orten zusammen. Für uns als Business Club ist das einer der Treiber von unternehmerisch relevantem Networking. Zusammen mit Design Offices können wir solche Räume deutschlandweit anbieten. Doch ein Business Club ist noch viel mehr: Ein Anruf bei unseren Clubmanagern, die als Kuratoren des persönlichen Netzwerks fungieren, und Ihnen steht das gesamte Rotonda-Netzwerk zur Verfügung.“
Michael Schmutzer: „Wir wissen aus Erfahrung, dass unsere Kunden zwar eine professionelle Arbeitsumgebung wünschen, aber sie wollen nicht den typischen Look eines Bürogebäudes. Sie wollen nicht im klassischen Büro arbeiten, sondern sie möchten an Orten arbeiten, die eine angenehme und lebendige Atmosphäre versprühen. Das ist für das Arbeiten von morgen ein ganz relevanter Punkt. Physische Räume ja, aber nicht in den Strukturen und der angestaubten Atmosphäre von gestern.“

Was ist das Spannende und Zukunftsweisende an den Angeboten des Rotonda Business Club?
Uwe Kessel: „Wir sind der einzige Business Club, der inhaltlich an den Themen der Mitglieder mitarbeitet (Unternehmensentwicklung, Nachfolge, Digitalisierung etc.) und systematisch überregional Entscheider zusammenführen kann. Unsere Mitglieder sind bundesweit unterwegs und haben in jeder größeren Stadt ein Zuhause. Unser Anspruch ist nicht das „Netzwerken“, was häufig auf den reinen Austausch von Visitenkarten verkürzt wird. Wie viele Ihrer Online Netzwerk Kontakte könnten Sie jetzt anschreiben, wenn Sie Unterstützung benötigen? Wenn Ihnen jemand, den Sie nicht kennen, eine Nachricht schreibt, wie wahrscheinlich ist es, dass Sie antworten werden? Wir stellen die Beziehung in den Mittelpunkt. Heute können die meisten nicht mehr als 20 bis 30 Beziehungen intensiv pflegen. Unsere Vision ist, dass einer dieser Kontakte einer unserer Clubmanager ist. Denn er pflegt für Sie die Beziehung zum Rest des Clubnetzwerks und hilft Ihnen bei Ihren Anliegen.

Wer im Rotonda Business Club arbeiten möchte, legt viel Wert auf eine Atmosphäre, die nicht dem klassischen Bürodenken entspricht.

Wer im Rotonda Business Club arbeiten möchte, legt viel Wert auf eine Atmosphäre, die nicht dem klassischen Bürodenken entspricht.

Wie ist die Idee entstanden, die Angebote zu verbinden?
Michael Schmutzer: „Durch gemeinsame Projekte haben wir festgestellt, dass wir eine große gemeinsame Basis haben. Viele Nutzer von Design Offices sind gleichzeitig auch Mitglieder im Rotonda Business Club. Diese Menschen leben bereits New Work, wollen darüber hinaus aber auch die Vorzüge eines Business Clubs. Da war es natürlich naheliegend, unsere Angebote zu bündeln und den Kunden so das Beste aus beiden Welten zu bieten. “
Uli Kessel: „Wir teilen die Vision eines neuen vernetzten Arbeitens, das weiter konkrete Orte braucht. Einmalige Räumlichkeiten in jeder großen Stadt. Immer zentral gelegen und in der Nähe zum Bahnhof. Dazu noch tolle Mitarbeiter, die an der gemeinsamen Idee mitwirken. Bessere Voraussetzungen für einen bundesweiten Business Club gibt es nicht.“

Wie virtuell und wie konkret werden (Geschäfts-)Beziehungen und Networking in Zukunft sein?
Uwe Kessel: „Online-Netzwerke können ein gutes Kommunikationsmedium sein, trotzdem braucht es weiterhin den ganz konkreten Austausch von Angesicht zu Angesicht. Das Problem vieler „konkreter“ Networking-Veranstaltungen ist, dass die Teilnehmer unterschiedliche Motive für einen Besuch haben. Der eine sucht Kunden, der andere den Blick über den Tellerrand, wieder andere fachlichen Input oder Inspiration. Dabei ist das eine große Ziel der Aufbau von Beziehungen. Und eine Beziehung ist erst dann aufgebaut, wenn Mitglieder sich so gut kennen und vertrauen, dass sie bereit sind, für den anderen aktiv zu werden. Um das zu erreichen, ist es aus unserer Sicht unerlässlich, sich tatsächlich zu treffen, zu sprechen, gemeinsam zu denken und in einer inspirierenden Atmosphäre auszutauschen. Gute Beziehungen sind immer konkret, auch und gerade in einer zunehmend digital und virtuell vernetzten Zukunft.“

Das Arbeiten 4.0 ist gekennzeichnet durch große Freiräume in der Arbeitsplatzgestaltung. Für den persönlichen Kontakt kommen Events eine große Bedeutung zu. Diese können jederzeit in dem Business-Club gestaltet werden.

Wie agil sind die arbeitenden Menschen in Deutschland bereits – wer nutzt die Angebote schwerpunktmäßig?
Uli Kessel: „Unsere Mitglieder spiegeln die gesamte wirtschaftliche und kulturelle Bandbreite der Unternehmen in Deutschland wider: etablierte Konzerne, Kanzleien, Start-ups, Kreative und Politiker. Jede dieser Personen findet bei uns das passende Angebot. Und alle diese Personen sind deutschlandweit mobil und wollen deshalb auch deutschlandweit Beziehungen aufbauen. Gerade Unternehmen aus der Old Economy finden den Brückenschlag zu Start-ups spannend. Hier ergeben sich vielfältige und immer neue Impulse für Kooperationen und eine gemeinsame Zusammenarbeit.“

Welche unternehmerischen Ziele oder Anliegen lassen sich auf diese Weise besser realisieren als vorher?
Uwe Kessel: „Die bundesweite Mitgliedschaft bringt für unsere Mitglieder viele Vorteile, die sie vorher nicht hatten. Offensichtlich ist natürlich, dass es besser ist, in acht Städten Zugriff auf Räume und ein persönliches Kontaktumfeld zu haben, statt nur in einer Stadt. Auch die Vernetzung in ganz Deutschland bringt viele Vorteile. Der richtige Partner sitzt häufig nicht in der gleichen Region. Und wichtige Themen lassen sich so bundesweit diskutieren. Die Digitalisierung interessiert nicht nur die Leute in München, sondern auch in Berlin. Gerade das innovative Start-up aus Hamburg ist vielleicht im Rahmen einer Kooperation für das Unternehmen aus Stuttgart interessant, während der potentielle Investor in Frankfurt sitzt. Und auch das sollte man nicht vergessen: Mit dem größten Business Club Deutschlands bauen wir auch das größte Netzwerk an Business Angels und Investoren in Deutschland auf.“

Das Netzwerken steht im Vordergrund. Das war auch die zentrale Idee, welche die Unternehmen Rotonda Business Club und Design-Offices verbindet.

Das Netzwerken steht im Vordergrund. Das war auch die zentrale Idee, welche die Unternehmen Rotonda Business Club und Design-Offices verbindet.

Wohin entwickelt sich Arbeiten 4.0, welche Revolutionen oder vielleicht Revivals erwarten uns – und welche (neuen) Geschäftsmodelle ergeben sich daraus?
Michael Schmutzer: „Ich denke, dass unsere Zusammenarbeit eine Revolution in der Arbeitswelt werden wird, denn sie macht die Philosophie von New Work direkt erlebbar. Wir wissen aus unserer Arbeit, dass die Kreativität oftmals im Zwischenraum entsteht. Hier haben wir einen großen Zwischenraum geschaffen. Und es geht nur über das Thema Sharing; indem ich sage: Ich brauche das nicht alles für mich alleine. Aber ich kann es dann nutzen, wenn ich es brauche und wie ich es brauche.“
Uli Kessel: „Arbeiten 4.0 heißt, dass man räumlich flexibel arbeiten kann. Man sitzt nicht mehr jeden Tag am selben Arbeitsplatz, im selben Gebäude desselben Unternehmens. Auftraggeber, Ort und Schreibtisch ändern sich. Das bringt viele Vorteile, hinterlässt jedoch auch eine Lücke: Der Mensch ist ein soziales Wesen und lebt auch von Beziehungen. Früher war der Arbeitsplatz ein Ort, an dem sich Beziehungen entwickelt haben. Durch New Work ändert sich das. Man ist mehr unterwegs und das Gefühl der Heimat, dieser bekannten Umgebung mit eigenem Background, kommt abhanden. Unser Ziel ist es deshalb, dass unsere Mitglieder an jedem Standort ihre Homebase finden. Diese Empfindung ist der Nährboden für Beziehungen. Und das Revolutionäre ist, dass diese Beziehungen viel stärker auf Personen außerhalb meines Unternehmens fokussiert sind. Dadurch entstehen neue Arten der Kooperation und damit auch neue Geschäftsmodelle, die aus dem Sharing ein Mehr für alle generieren. Sowohl Design Offices als auch der Rotonda Business Club leben und erleben das jeden Tag.“

Weitere Informationen unter:
https://rotonda.de/
https://www.designoffices.de/

Über den Rotonda Business Club
Uli (li.) und Uwe Kessel, Gründer des Rotonda Business Club.

Uli (li.) und Uwe Kessel, Gründer des Rotonda Business Club.

Der Rotonda Business Club ist das größte aktive Netzwerk unternehmerisch denkender und handelnder Menschen in Deutschland. Seit 1999 am Stammsitz in Köln etabliert, hat das Unternehmen seine Vision von einem zukunftsorientierten Clubangebot inzwischen auf 8 Standorte und über 2.000 Veranstaltungen im Jahr ausgeweitet. Unter dem Claim „Raum für Beziehungen“ versteht sich der Rotonda Business Club als wirtschaftlicher und sozialer Drehpunkt, der sich mit starken Inhalten und attraktiven Räumen aktiv für die Vernetzung seiner über 900 Mitglieder einsetzt.
Die Geschäftsführer Uli und Uwe Kessel zählen sich selbst „zu den Entdeckern“ in der Business-Welt: Uli Kessel liebt es, Welten zu entdecken. Die Welt der Unternehmen und ihrer Beratung ebenso wie die Welt „draußen“, beide voller Geschichten und interessanter Menschen, von denen Uli Kessel sich gerne inspirieren lässt. Dabei tun sich immer spannende Wege auf. Ihn selbst hat es nach Stationen in der Wirtschaftsprüfung und der Unternehmensberatung zum Einstieg in den Rotonda Business-Club geführt. Uwe Kessel ist mit Leidenschaft unterwegs. Als Triathlet liebt er die Herausforderung, verschiedene Elemente und Disziplinen zusammenzuführen. Genau das prägt ihn auch als begeisterten Unternehmer. Im Rheinland verwurzelt und vernetzt, ist er immer auf der Suche nach neuen interessanten Verbindungen. 2011 initiierte er gemeinsam mit Unternehmern aus der Region die Gründung der Rotonda Business Angels.

Über Design Offices
Michael O. Schmutzer, Gründer und Geschäftsführer von Design Offices.

Michael O. Schmutzer, Gründer und Geschäftsführer von Design Offices.

Design Offices ist einer der führenden Anbieter von richtungweisenden Raumlösungen für modernes Arbeiten mit deutschlandweit mehr als 10 Standorten und über 34.000 qm Gesamtfläche. Michael O. Schmutzer hat bereits sehr früh antizipiert, was für umwälzende Veränderungen der Arbeitswelt bevorstehen. Der Vollblutentrepreneur entschied sich einer der Treiber der Entwicklungen zu werden und gründete 2008 Design Offices. Längst ist sein Unternehmen zur bedeutenden Brutstätte für bahnbrechende neue Ideen geworden. Mit einem visionären Konzept und einer richtungweisenden Architektur ist Design Offices heute die wichtigste Plattform für das Thema New Work und die Gestaltung von neuen Arbeitswelten in Deutschland. Seit der Gründung genießt man die Wertschätzung der renommiertesten nationalen und internationalen Unternehmen. Das Geheimnis von Schmutzers Erfolg liegt in seiner akribischen Research-Arbeit begründet, kaum jemand weiß besser über die neuesten gesellschaftlichen und ökonomischen Trends Bescheid, als er.

Bildquellen / Lizenz: Rotonda Business Club / Design Offices

Die HR-Leistungsfähigkeit durch smarte IT-Lösungen erhöhen

Der Druck auf die HR-Bereiche in den Unternehmen steigt. Denn moderne Personalabteilungen werden nicht nur an der Erledigung administrativer Aufgaben gemessen, sondern als proaktiver Dienstleister im Unternehmen verstanden, der seinen Wertbeitrag erbringen und nachweisen muss. Vor dem Hintergrund knapper Budgets und gleichzeitig steigender Komplexität wird von den Personalabteilungen erwartet, dass sie nach neuesten betriebswirtschaftlichen Konzepten und Methoden arbeiten, ihre Prozessstrukturen wirtschaftlich und sparsam gestalten, die Kosten senken und mit einer agilen und schlagkräftigen HR-Organisation dafür sorgen, dass qualifizierte Mitarbeiter gewonnen und an das Unternehmen gebunden werden. Gleichzeitig müssen sich die HR-Abteilungen Veränderungen flexibel anpassen und damit nicht nur ihre, sondern die Leistungsfähigkeit des gesamten Unternehmens sicherstellen. HR wird als Business Partner und relevanter Wertschöpfungsfaktor gesehen, der die neuen Formen des Arbeitens, sprich die Flexibilisierung von Arbeitszeit und Arbeitsort, gekonnt steuert.

Höhere Qualität, bessere Effizienz

Eine höhere Qualität der HR-Leistungen, optimierte Prozesse und Effizienzsteigerungen sind angesichts des wachsenden Leistungsumfangs der HR aber nicht mit althergebrachten Methoden zu erreichen. Ein zielorientierter IT-Einsatz allerdings kann wesentlich dazu beitragen, den Druck zu verringern und die Servicequalität der HR-Abteilung zu erhöhen. Denn die IT-Abteilungen haben ihre Abläufe bereits in den letzten Jahren auf ein softwaregestütztes Service-Management gemäß den ITIL-Empfehlungen (IT Infrastructure Library) umgestellt. Mit einer ITIL-konformen Service-Managementlösung erfolgen sämtliche Veränderungen an der IT prozessbasiert und auf optimierte, standardisierte Weise. Es bietet sich an, moderne Service Management-Lösungen auch im HR-Bereich zu nutzen und sie an deren Anforderungen auszurichten.

Anpassung an HR-Prozesse

Als Basis für die Abbildung automatisierter Abläufe gemäß ITIL dient eine sogenannte Workflow Engine. Für den Einsatz dieser Workflow Engine ist es unerheblich, ob der abzubildende Prozess aus dem IT-Umfeld stammt, aus dem Facility-Management, dem Fuhrpark-Management oder eben dem Bereich Human Resources. Moderne Service Management-Lösungen ermöglichen relativ einfach die Abbildung von HR-Prozessen. Dazu bieten sie eine anwenderfreundliche, webbasierte Benutzerschnittstelle. So kann ein Anwender den gewünschten Ablauf mit wenigen Mausklicks zusammenstellen – ohne dass dafür eine aufwändige Schulung oder gar Programmierkenntnisse erforderlich wären. Die HR-Mitarbeiter selbst können die Prozesse gestalten, ohne dass zwingend IT-Unterstützung notwendig wird. Zudem sind bei Veränderungsbedarf auch nachträgliche Anpassungen jederzeit möglich, zum Beispiel wenn das Unternehmen einen neuen Geschäftsbereich eingeführt hat und dieser nun in den HR-Workflows zu berücksichtigen ist.

Alle HR-Prozesse abbildbar

Eingesetzt werden können Service Management Systeme für die unterschiedlichsten HR-Prozesse, sei es im Recruiting, beim Onboarding neuer Mitarbeiter, für die Abwicklung von Krankmeldungen, Urlaubsanträgen oder Reisekostenabrechnungen, wie für die Erstellung von Zwischenzeugnissen oder im Bereich der Mitarbeiterentwicklung. Durch die Automatisierung dieser Prozesse sinkt die Fehleranfälligkeit, Parallelstrukturen mit redundanter Leistungserbringung werden vermieden und die Abwicklungsgeschwindigkeit steigt genauso wie die Transparenz. Damit erhöht die HR-Abteilung nicht nur die Qualität ihrer Arbeit, sondern gewinnt zudem wertvolle Zeit, um sich als Business Partner mit innovativen Ideen im Unternehmen einzubringen und gezielt zur Wertschöpfung beizutragen.

Alle Interessierten, die mehr zum Thema wissen möchten, können sich am 18. Mai 2017 von 10:00 – 11:00 Uhr in einem kostenlosen Premium-Webinar informieren. Zur Registrierung geht’s hier: http://ow.ly/OMB630aL8GR

Die digitale Transformation erfordert eine neue IT-Organisation

Dominik Neumann, Vice President Digital Transformation bei CGI in Stuttgart, schreibt in seinem Gastbeitrag darüber, dass bimodale IT erst der Anfang für die erfolgreiche digitale Transformation ist.

Die Informationstechnologie ist die treibende Kraft bei der Digitalen Transformation, die für fast alle Unternehmen eine beachtliche Herausforderung ist. Besonders davon betroffen sind die IT-Abteilungen. Bei ihnen ist eine grundlegende Neuausrichtung erforderlich.

Bislang folgen die meisten IT-Organisationen einem der beiden Paradigmen „Plan-Build-Run“ oder mit verkürzter IT-Wertschöpfungskette „Source-Make-Deliver“. Egal ob beim Planen, Erstellen und Betreiben oder beim Beschaffen, Zusammenbauen und Ausliefern einer Lösung folgt die IT immer einem Service-zentrierten Ansatz. Innovation ist auf die Effizienzsteigerung des IT-Service ausgerichtet, das bedeutet, fest definierte Services möglichst kostengünstig zu erbringen. Vielfach ist die IT aktuell weit weg vom Business sowie der Umsetzungsgeschwindigkeit und Flexibilität, wie sie die Fachabteilungen heute benötigen.

Bimodale IT bietet einen Einstieg zur Beherrschung der stetig steigenden Komplexität. Mode 1 folgt den Prinzipien von Best Practices und Mode 2 den emergenten, dynamischen Praktiken. (Quelle: David Snowden: A Leaders Framework for Decision Making, HBR 11/2007)

Bimodale IT bietet einen Einstieg zur Beherrschung der stetig steigenden Komplexität. Mode 1 folgt den Prinzipien von Best Practices und Mode 2 den emergenten, dynamischen Praktiken. (Quelle: David Snowden: A Leaders Framework for Decision Making, HBR 11/2007)

In der Zwischenzeit hat in den IT-Abteilungen ein Umdenken eingesetzt und die IT entwickelt sich vom Supporter zum Enabler hin zum Driver des Business. Als Supporter gehörte das Unterstützen und Optimieren der Geschäftsprozesse zur Kernaufgabe der IT-Abteilung. In der neuen Rolle der IT als Driver tritt jedoch viel stärker der CDO in Aktion: Er erwartet von der IT, dass sie als Mitstreiter auf dem Weg zu neuen digitalen Geschäftsmodellen agiert.
Damit die IT in ihrer neuen Rolle erfolgreich sein kann, ist es nun die Aufgabe des CIO die IT-Organisation umzubauen. Laut der CGI Umfrage Global 1000 steht der CIO in der Regel vor drei großen Herausforderungen:

  • Hoher Kostendruck: Um den Umbau der IT zu finanzieren, muss die IT zunächst Einsparpotenziale identifizieren, denn selten ist zusätzliches Budget vorhanden, das für den Umbau dringend benötig wird. Zudem steht das operative Business in vielen Branchen unter erheblichem Kostendruck, der sich fast immer auch auf die IT auswirkt.
  • Time-to-Market: Features müssen immer schneller zu den Kunden kommen. Amazon, Netflix und Co. machen vor, wie täglich neue Funktionalität live geschaltet werden kann. Diesem Druck kann die klassisch aufgestellte IT aufgrund starrer Organisationen und veralteter Softwarelandschaften oft nicht standhalten.
  • Beharrungskräfte verhindern den Umbau: Insbesondere im mittleren Management sind die Beharrungskräfte groß und die Veränderungsbereitschaft, sich auf eine neue Unternehmens- und Führungskultur einzulassen, gering.
„Letztendlich darf es nur eine IT mit einer Geschwindigkeit geben, die agil und flexibel ist“, betont Dominik Neumann von CGI Deutschland.

Dominik Neumann ist Vice President Digital Transformation bei CGI in Stuttgart.

Um diesen Herausforderungen der Digitalen Transformation zu begegnen, wird dazu geraten, die IT zunächst bimodal aufzustellen. Gemeint ist damit die Koexistenz zweier kohärenter IT-Arbeitsweisen. Im Mode 1 befasst sich die IT mit den langfristig stabilen, selten geänderten und in ihrem Verhalten vorhersehbaren Kernsystemen. Im Mode 2 arbeitet sie mit experimentellen und agilen Vorgehensweisen und konzentriert sich auf Applikationen an der Kundenschnittstelle: eine IT der zwei Geschwindigkeiten sozusagen.
Damit werden Konzepte aufgegriffen, die davon ausgehen, dass Managemententscheidungen entweder unter Sicherheit oder unter Unsicherheit getroffen werden. Daher werden auch in der IT zwei Modi benötigt – einerseits für die planbare und andererseits für die komplexe und explorative Welt, die nur durch Versuch und Irrtum erschlossen werden kann. In der komplexen Welt kommen neben Ansätzen zur agilen Softwareentwicklung zusätzlich DevOps-Verfahren zum Einsatz. DevOps bedeutet auch: Die IT arbeitet nicht mehr Projekt- und Aktivitäten-bezogen, sondern Produkt- und Ergebnis-bezogen. Ein Team ist damit für den gesamten IT-Lebens- und -Wertschöpfungszyklus einer Lösung verantwortlich – nach dem Motto „You Build It, You Run It“. Die Einführung einer bimodalen IT ist der erste Schritt auf dem Weg zur Umgestaltung der IT-Organisation.

Die IT muss schneller werden

Eine bimodale Organisation der IT greift die Anforderung auf, dass die IT bei der Umsetzung neuer Aufträge schneller werden muss – und dies ohne Abstriche bei der Qualität. Je näher die IT-Systeme am Endkunden ausgerichtet sind und je mehr Berührungspunkte der Endkunde durch IT-Systeme mit dem Unternehmen hat, desto größer werden die Anforderungen an eine schnelle Anpassbarkeit.

Zusätzlich zu einem bimodalen Ansatz ist die Unterscheidung zwischen Systems of Records (SoR) und Systems of Engagements (SoE) verbreitet. Die stabilen Systeme sind die transaktionalen Legacy-Systeme als SoR im Backoffice, die in der Regel mit vierteljährlichen oder halbjährlichen Releasezyklen geplant werden. Die agilen sind die kundenzentrierten SoE; hier finden sich alle Applikationen mit den Kundenkontaktpunkten.

Aktuell gibt es eine nachvollziehbare enge Kopplung zwischen SoR und SoE und diese bremst die IT aus. Will eine IT-Organisation flexibler agieren, müssen beide besser voneinander entkoppelt werden. Da SoR und SoE fachlich auch weiterhin miteinander verzahnt sind, können sie nur technisch getrennt werden. Vereinfacht ausgedrückt besteht die Lösung darin, dass zwischen den SoR und den SoE eine asynchrone auf Events basierende intelligente „Entkopplungsschicht“ eingezogen wird.

Komplexität in den Systems of Records verringern

Dazu bedarf es einiger Vorarbeiten bei den langjährig im Einsatz befindlichen betriebswirtschaftlichen Applikationen. Unternehmen haben diese Standardsoftware um individuelle Funktionalitäten und zusätzliche eigenentwickelte Lösungen erweitert, mit denen sie sich vom Wettbewerb differenzieren. Als Folge entstanden monolithische sowie oft nur noch aufwendig und langwierig zu wartende IT-Systemlandschaften.

Systems of Records und Systems of Engagement sind über einen synchronen API- und einen asynchronen Services Layer lose miteinander gekoppelt. (Quelle: CGI)

Systems of Records und Systems of Engagement sind über einen synchronen API- und einen asynchronen Services Layer lose miteinander gekoppelt. (Quelle: CGI)

Um schneller und flexibler agieren zu können, sollten Unternehmen dazu übergehen, die ursprünglich auf Anforderungen der Fachbereiche erstellten individuellen Funktionalitäten so weit möglich in Microservices zu überführen und sie in einem Services Layer unterzubringen. Anschließend können die Microservices – entkoppelt von den Standard-Applikationen – schnell und problemlos weiterentwickelt werden. Die konsequente „Entschlackung“ der betriebswirtschaftlichen Applikationen und damit der SoR führt zu einer deutlichen Reduktion der Komplexität und ebnet den Weg zur Standardisierung der IT-Infrastruktur. Der entscheidende Punkt dabei: In den fachlich definierten Microservices steckt das eigentliche Know-how der Unternehmen, mit dem sie ihre direkte Wertschöpfung erzielen.

Die IT sinnvoll verschlanken und Kosten vermeiden

Konsequent umgesetzt enthalten Microservices die eigentlichen Business Capabilities, die die Wettbewerbsfähigkeit eines Unternehmens ausmachen. Das bedeutet auch, dass die in den SoR verbliebenen, nicht wertschöpfenden Standardanwendungen so weit wie möglich ausgelagert werden können. CGI spricht hier vom Transformational Outsourcing.
Bei den wettbewerbsrelevanten Services sollten Unternehmen nach agilen Methoden vorgehen, eine eigene Softwareentwicklung betreiben und damit die Fertigungstiefe erhöhen. Die Entwickler konzentrieren sich in DevOps-Teams vollständig auf die Business Capabilities, mit denen sie die Wettbewerbsfähigkeit des Unternehmens sicherstellen und weiter ausbauen.

Business-Capability-fokussierte Teams sind  “Think-it-Build-it-Run-it”-Teams.

Business-Capability-fokussierte Teams sind “Think-it-Build-it-Run-it”-Teams.

Während sich aus der alten „Build“-IT eine agile und flexible IT mit hoher Fertigungstiefe entwickelt, entsteht aus der „Run“-IT das Cloud-Services-Management. Bis zu 90% der IT-Systeme werden in Private- und Public-Cloud-Umgebungen verlagert. Damit verlagert sich auch die Kompetenz und Verantwortung der „Run“-IT weg vom Betreiben eines eigenen On-Premise-Rechenzentrums hin zum Management der hybriden Cloud-Umgebungen: Dabei geht es um Vertragsmanagement, Monitoring der vereinbarten SLA, Consulting zur Auswahl passender Cloud-Umgebungen sowie um Belange wie Cyber- & Information-Security, Governance und Compliance.

 

Business und IT verschmelzen in neuen Wertschöpfungsnetzen

Mittelfristig wird die IT grundlegend umgebaut. Für die geschäftskritischen IT-Funktionalitäten gibt es Produkt-orientierte innovative Teams, die sich um eine schnelle Weiterentwicklung kümmern. Sie können flexibel auf geänderte Markt- und Kundenanforderungen reagieren und zusammen mit der Fachabteilung, in der sie organisatorisch angesiedelt werden, innerhalb kurzer Zeit neue Produkte und Services auf den Markt bringen. IT entsteht in Zukunft da, wo sie gebraucht und eingesetzt wird. Das ist Business-IT-Alignment in Reinkultur.

In Produkten anstatt in Projekten denken.

In Produkten anstatt in Projekten denken.

Neue Geschäftsmodelle brechen klassische Geschäftsprozesse auf. Damit verändert sich im Verlauf der Digitalen Transformation das Business deutlich. Mittelfristig werden die IT-Teams zusammen mit den Fachabteilungen in Einklang mit dem Business neu zusammengesetzt. Bei der Umsetzung der Digitalen Transformation und der Implementierung neuer Geschäftsprozesse und -modelle gewinnen die Fachabteilungen an Gewicht. Wenn die IT Produkt-orientiert aufgestellt ist und Unternehmen im idealen Fall alle nicht direkt die Wettbewerbsfähigkeit betreffenden und fördernden Applikation ausgelagert sind, wird die IT zunehmend mit den Fachabteilungen verschmelzen. Damit existiert dann auch eine völlig neue IT. Das Ziel dabei ist, dass eine dezentrale IT dann zu einem essenziellen Teil neuer Wertschöpfungsnetzwerke wird.

Weitere Informationen unter:
www.cgi.com

New Work & Arbeiten 4.0

Neue Arbeits- und Führungskultur im Zeitalter der digitalen Wirtschaft

Auch wenn das Kürzel „4.0“ erst einmal suggeriert, die Veränderungen in der Arbeitswelt würden vor allem durch die Digitalisierung vorangetrieben, verbirgt sich viel mehr dahinter: Es sind auch die gesellschaftlichen Trends Globalisierung, demografischer Wandel, Bildung und Migration, die schon heute unsere Arbeit beeinflussen und erst recht unsere zukünftige beeinflussen werden. So verwundert es nicht, dass beispielsweise schon 2015 in einer von der Telekom und der Universität St. Gallen veröffentlichen Studie nicht ohne Hintergedanken von Revolution gesprochen wurde – damals noch fokussiert auf Industrie 4.0: Nach der Einführung mechanischer Produktionsanlagen mithilfe von Wasser- und Dampfkraft, der arbeitsteiligen Massenproduktion mithilfe von elektrischer Energie und dem Einsatz von Robotik und IT zur weiteren Automatisierung der Produktion nun also die vierte industrielle Revolution mit dem Einsatz von cyberphysischen Systemen. Bundesministerin Andrea Nahles schreibt im Vorwort des im November 2016 von ihrem Ministerium herausgegebenen Weißbuchs „Arbeiten 4.0“, dass die Hauptfigur des Wandels zwar die Digitalisierung sein mag, Arbeiten 4.0 ist aber „vielmehr ein Kürzel für die Veränderungen in der gesamten Arbeitswelt und ihre Folgen für die Gesellschaft“. Schwer fällt es allerdings, den Begriff Arbeiten 4.0 aus der Schwammigkeit zu holen.

Dies liegt sicher auch daran, dass wir uns noch am Anfang der Umwälzungen befinden, an Veränderungen von Geschäftsmodellen, von Prozessen und Strukturen und von gesellschaftlichen Themenfeldern, wie es Prof. Dr. Jutta Rump, Direktorin des Instituts für Beschäftigung und Employability, erklärt: Es gibt die technologische und ökonomische Komponente in dem Thema, die mit den Themen Demografie und Nachwuchs zu kombinieren sind. Und all das werde dann noch vor den gesellschaftlichen Trends wie Nachhaltigkeit, Individualisierung, Vielfalt und Polarisierung sowie der Work-Life-Balance gespiegelt. Ein solches Gebilde ist an Komplexität wohl kaum zu toppen. Zumal, wie Nahles schreibt: „Arbeiten 4.0 beschreibt dabei nicht die heutige Normalität, sondern Perspektiven, Szenarien und Gestaltungschancen für die Zukunft – für eine Arbeit, die den Menschen nützt und unsere Wirtschaft voranbringt.“

Trendbegriff  VUCA

Das Akronym VUCA be­schreibt effizient die geänderten Rahmenbedingungen für Unternehmen und Mitarbeiter im Kontext der Digitalisierung: Volatilität (Volatility) = Unberechenbarkeit und Unbeständigkeit; Unsicherheit (Uncertainty) = Unsicherheit und Ungewissheit. Komplexität (Complexity) = komplexe Systeme „Mehrebenensysteme“, Ambivalenz (Ambiguity) = Mehrdeutigkeit z.B. bei Situationsbewertungen https://trendreport.de/vuca

Doch weisen diese Entwicklungen tatsächlich alle in Richtung eines Nutzens für den Menschen? Die Ministerin selbst muss immerhin anerkennen, dass die digitale Transformation polarisiert: „Für die einen ist sie Verheißung und Lebensgefühl, für die anderen bedeutet sie Unsicherheit.“ Und könnten nicht manche der derzeit stattfindenden politischen Ereignisse Folge dieser Polarisierungen sein, ein Ausdruck von Zukunftsangst, die Sorge, abgehängt zu werden, und das lähmende Gefühl, die Entwicklungen nicht mehr zu verstehen? Aussagen wie jene von Telekom-Personalvorstand Christian P. Illek, der ausführt, dass es nach Prognosen im Jahr 2020 Milliarden Roboter auf der Erde geben wird – mehr als Menschen. Vielen wird bei solchen Aussagen mulmig werden. Und wenn Studien verkündigen, dass 20,5 Millionen Jobs in Deutschland der Automatisierung zum Opfer fallen könnten – und davon sind nicht nur einfache Tätigkeiten betroffen – ist das auch nicht jedermanns Wunschvision. Immerhin geht das Institut für Arbeitsmarkt- und Berufsforschung davon aus, dass im Kontext der Transformation wegfallende Stellen in adäquater Anzahl wieder neu geschaffen werden.

Peter H. Feldmann, Ergonomie-Spezialist: „Kaum ein Unternehmen will gesund­heitsförderliche Einrichtungen nur für bereits ‚geschädigte‘ Mitarbeiter einkau­fen; sondern die Unternehmen wollen von vornherein präventiv vorgehen.“

Peter H. Feldmann, Ergonomie-Spezialist: „Kaum ein Unternehmen will gesund­heitsförderliche Einrichtungen nur für bereits ‚geschädigte‘ Mitarbeiter einkau­fen; sondern die Unternehmen wollen von vornherein präventiv vorgehen.“

Doch Unsicherheit wird bei einigen bleiben, zumal die Komplexität nur noch schwer beziehungsweise kaum verständlich und nachvollziehbar vermittelbar ist. Auch Arbeitsexpertin Jutta Rump benennt die Schwierigkeit, die Komplexität von Arbeit 4.0 in der Außenkommunikation sichtbar zu machen. Und laut Andrea Nahles müsse gezeigt werden, „wo die Chancen liegen und dass wir es in unserer Hand haben, in welche Richtung sich die Dinge entwickeln.“ Mit dieser positiven Einstellung auf die Entwicklungen dürfte man wahrscheinlich tatsächlich am besten fahren, denn klar und unbestreitbar ist: Der Wandel hat uns alle längst erfasst – sowohl im Privat- als auch im Berufsleben. Neue Möglichkeiten in der Kommunikation führen zu neuen Formen der Kollaboration, der Zugang zu Wissen ist vereinfacht, mobile Technologien führen zu ortsungebundenem Arbeiten, das, wie Rump mit ihrer Kollegin Silke Eilers im Buch „Auf dem Weg zur Arbeit 4.0“ schreibt, „zu weitreichenden Veränderungen im Arbeits- und Unternehmensalltag und zu einer Vielfalt an neuen Arbeitsmodellen führt.“

Ein Beispiel: Im Bereich der Softwareentwicklung wird die Grenze zwischen Fachbereichen und IT nach der Darstellung von Sebastian Ley, Associate Director bei Platinion, zunehmend verschwimmen. Digitalisierung bedeute hierbei, dass IT nicht mehr nur ein Enabler des Geschäfts ist, sondern ein integraler Bestandteil der Wertschöpfung wird. „Dadurch verändern sich die organisatorischen Zuordnungen und Rollenbeschreibungen.“
Einen großen Einfluss auf das Arbeiten in der Zukunft werden nach seiner Einschätzung zudem die Weiterentwicklungen im Bereich der Künstlichen Intelligenz ausüben. „Sie wird in Konkurrenz mit vielen klassischen Berufsbildern treten, die sich einer klassischen algorithmischen Automatisierung entziehen“, sagt er.

HANDBUCH DIGITALISIERUNG

Open-Content-Redaktionskonzept: Seit Januar 2017 ist das erste gemeinfreie Werk als Fachbuch und Wegweiser für Unternehmen zum Thema Digitalisierung am deutschen Markt erschienen. Das Handbuch geht mit einer Creative-Commons-Lizenz und einer lebendigen Autoren-Community an den Start. Der stets aktuelle Begleiter für den digitalen Wandel.
www.handbuch-digitalisierung.de

Arbeiten 4.0: Ein langer Weg?

Doch wenn Andrea Nahles schreibt, wir hätten die Zukunft in unserer Hand, dann beinhaltet dies auch, den Weg gemeinsam zu gehen – mit allen. Dies gilt auch für die Unternehmen. Dabei kann sicher die Aussage von Daniel Hartert, Head of Business Services und CIO der Bayer Group, herangezogen werden: „Technology is the easy part. The hard part is change.“ Professorin Ursula Männle, Vorsitzende der Hanns-Seidel-Stiftung, fordert: „Trotz gesellschaftlicher Veränderungen müssen die Menschen im Mittelpunkt der Betrachtung bleiben. Werte wie Verantwortung, Vertrauen und Solidarität müssen weiterhin auch in der Arbeitswelt eine große Bedeutung haben.“ Sicher hat sie recht damit. Bleibt alleine die Frage nach dem Erfolg vertrauensaufbauender Maßnahmen – macht der digitale Wandel laut einer Untersuchung von Sopra Steria Consulting, die sich mit dem Phänomen der digitalen Überforderung im Arbeitsleben auseinandersetzt, doch 17 Prozent aller Beschäftigten in deutschen Unternehmen Angst. 20 Prozent der Studienteilnehmer graut es demnach sogar vor der Einführung neuer Digitaltechnologien. Wobei diese Haltung laut den Ergebnissen unter Führungskräften mit 22 Prozent überdurchschnittlich häufig anzutreffen ist. Thomas Sattelberger, Sprecher der Themenbotschafter der Initiative „Neue Qualität der Arbeit“ sagte einst in diesem Magazin: „In unsicheren Zeiten Sicherheit zu vermitteln, ist paradox. ‚Wir müssen alle mitnehmen.‘ – Das ist ein Satz zur Kosmetik. Man kann es versuchen, aber wir wissen, dass das schon in der Vergangenheit nicht geglückt ist.“

Auch wenn nicht alle mitgenommen werden können, sollten es doch so viele wie möglich sein. Und so landet auch nach dem von Hays veröffentlichten „HR-Report 2017“ die Vorbereitung der Mitarbeiter auf die digitale Transformation mit 34 Prozent auf Rang zwei der wichtigsten HR-Themen beziehungsweise Handlungsfelder. Übertrumpft wird das Thema nur von der mit der digitalen Transformation eng zusammenhängenden Flexibilisierung der Arbeitsstrukturen mit 39 Prozent. An dritter Stelle, auch dies ein Thema, das eng mit der digitalen Transformation verbunden ist, folgt mit 32 Prozent die Weiterentwicklung der Unternehmenskultur. Dieses letztgenannte Thema kann sicher eine Menge zu den von Ursula Männle geforderten Attributen beitragen. Wobei bei einem Wandel hin zu einem anvisierten Ziel für manches Unternehmen an erster Stelle die Frage stehen kann: Wer sind wir überhaupt? Das auf Unternehmenskulturen spezialisierte Unternehmen Company Match hat dafür zum Beispiel einen mit Marktforschern und Markenstrategen sowie auf wissenschaftlichen Arbeiten basierenden „Company Match Ambassador Survey“ entwickelt.

Mithilfe einer Online-Mitarbeiterbefragung wird dabei eine Analyse und Definition der Unternehmenskultur erstellt. Laut Bjorn Veenstra, CEO des Unternehmens, hilft dies zum einen dabei, den Ist-Zustand zu identifizieren, zum anderen bei der Mitarbeitersuche. Er sagt: „In erster Linie ist es wichtig, dass sich der Arbeitgeber seiner eigenen Kultur bewusst ist. Nur wenn ein authentisches Bild der eigenen Unternehmenskultur besteht, kann auch der Cultural Fit mit potentiellen Mitarbeitern bestimmt werden.“

Demokratie & Agilität

Eine weitere Antwort auf Ursula Männles Forderungen könnten die eng an die Unternehmenskultur im Zeitalter der Arbeit 4.0 geknüpften Begriffe demokratisches Unternehmen und Mitbestimmung sein. Genauso Agilität. Thomas Sattelberger sieht das immaterielle Kapital der Unternehmen in der heutigen Wissensgesellschaft in den Köpfen der dort arbeitenden Menschen. Dazu gehören der Erfahrungsschatz, die Kreativität und die Innovationsfähigkeit. Somit habe die „Zusammenarbeit auf Augenhöhe“ heute auch eine sehr viel höhere Bedeutung als noch vor zehn oder 15 Jahren. Er führte daher den Begriff „Unternehmensbürger“ ein. Mit ihm soll zum Ausdruck kommen, dass Unabhängigkeit und Souveränität Merkmale der arbeitenden Menschen sind. Die damit einhergehende Individualität wird zu einer Verschiebung der Macht in den Unternehmen führen: Es wird nicht mehr nur das engmaschige Netz des Managements und der Sozialpartnerschaft bestehen, als weiterer Spieler wird nach Sattelbergers Ausführungen das Individuum dazukommen. Und der Experte für Arbeit fügt an: „Je individuumsbezogener ein Unternehmen sich entwickelt, umso attraktiver präsentiert es sich auf dem von Diversität geprägten Talentmarkt.“ Wichtig sei aber immer, dass Flexibilität und Selbstverantwortung mit klaren Spielregeln verknüpft seien – auch, um Ausbeutung der Mitarbeiter zu verhindern.

Doch wie kompliziert es ist, auf dem von Sattelberger erwähnten Talentmarkt erfolgreich zu sein, erklärt Prof. Dr. Isabell M. Welpe, Professorin an der Technischen Universität München für Betriebswirtschaftslehre, Strategie und Organisation: „Die Fähigkeit die besten Talente nicht nur in den angestammten Fächern, sondern auch in neuen Fächern, wie beispielsweise Künst­licher Intelligenz, mobilen Technologien, Cloud-Computing, Com­puter­wis­sen­schaften zu gewinnen, ist eine hochstra­tegische Herausforderung, die mit der Innovationsfähigkeit der Unternehmen eng verknüpft ist.“ Dies sei insbesondere des­halb so wichtig, weil aus empirischen Studien bekannt sei, dass Toptalente drei- bis zehnmal so produktiv seien wie durchschnittliche Talente. Insbesondere agile Fähigkeiten von Mitarbeitern und die Fähigkeit mit großen Datenmengen umzugehen, seien entscheidend“, so die Wissenschaftlerin.

Die Top-HR-Handlungsfelder: Die Grafik spezifiziert die wichtigsten Themen im Zeitverlauf. Quelle: Quelle: Hays HR-REPORT 2017, Schwerpunkt Komptenzen für eine digitale Welt

Die Top-HR-Handlungsfelder: Die Grafik spezifiziert die wichtigsten Themen im Zeitverlauf. Quelle: Quelle: Hays HR-REPORT 2017, Schwerpunkt Komptenzen für eine digitale Welt

Doch warum ist Agilität so wichtig? „Eine der wichtigsten Fähigkeiten in diesen Zeiten scheint die Fähigkeit von Firmen zu sein, sich anzupassen, an die Veränderungen, die durch neue Technologien und damit einhergehende veränderte Kundenbedürfnisse entstehen“, antwortet Welpe unter anderem. Das geht dahin, dass manche Unternehmen agile Teamstrukturen zulassen in denen Projektteams selbstbestimmt und mit viel Vertrauen ausgestattet, arbeiten. „Agilität im großen Maßstab geht nur mit Vertrauen in großem Maßstab“, sagt Welpe. Wobei es kein blindes Vertrauen sein sollte, sondern eines, das gerechtfertigt sei.

Auch beim jährlichen Branchentreff der Projektmanagement-Entscheider der TIBA Managementberatung GmbH ging es in diesem Jahr um das brandaktuelle Thema Projektmanagement 4.0. Dabei spannten namhafte Referenten renommierter deutscher und internationaler Unternehmen einen Bogen von aktuellen Entwicklungen im traditionellen Projektmanagement über agile Methoden bis hin zu einer Roadmap zum Start ihres Projektes „Digitalisierung“. Zu den Highlights gehörten Dr. Auma Obama, Mitglied des Weltzukunftsrats und Schwester des ehemaligen US-Präsidenten Barack Obama, Tim Cole, Erfolgsautor und Internet-Publizist, Christoph Burkhardt, einziger Innovation-Psychologist der Welt und Best-Practice-Vorträge namhafter Unternehmer. Heraus kam dabei unter anderem, dass in Projekten zum einen die zunehmende Komplexität gemanagt werden muss, zum anderen verlangt Vernetzung schnelle und dezentrale Entscheidungen an den fachlich verantwortlichen Schnittstellen. „Dafür gibt es nicht die eine Methode, manchmal braucht es auch den hybriden Ansatz zwischen klassischem Projektmanagement und agilen Methoden – ein Projektmanagement 4.0, auch ‚adaptives Projektmanagement‘“, betont Till H. Balser, Geschäftsführer der TIBA Managementberatung GmbH.

Coachen, lernen, weiterbilden

Auch Arbeits-Expertin Jutta Rump schränkt insgesamt etwas ein: „Wir werden in Zukunft agilere Organisationen haben, wir werden auch in Unternehmen agile Einheiten haben, die wirklich extrem agil und extrem partizipativ und sehr demokratisch agieren werden. Es wird aber genauso gut in den gleichen Unternehmen die Hierarchie geben.“ Hier gelte es auszubalancieren, denn Regeln brauche es immer – und seien es Kommunikations- und Kooperationsregeln. Aufgrund der sich schnell verändernden Umfelder, der oft noch jungen Methoden kommt der Weiterbildung von Mitarbeitern eine ganz entscheidende und wettbewerbserhaltende Rolle zu. „Design-Thinking, Scrum und Kanban zählen aktuell sicher zu den Spitzenreitern, wenn es um agile Ansätze geht“, sagt Christian Konz, Produktmanager, Trainer und Berater sowie Agile Coach bei der auf Weiterbildung und Software spezialisierten ibo Beratung und Training GmbH. Wobei zu beachten sei, dass diese Ansätze und Methoden völlig unterschiedliche Fragestellungen adressieren und auf unterschiedlichen organisatorischen Ebenen zusammenspielen. Prinzipiell müsse daher, so Konz‘ Kollegin Eleonora Weistroffer, eindeutig beantwortet werden, wozu und warum es überhaupt sinnvoll sei, klassische Bereichs- und Teamstrukturen in agile und sich selbststeuernde Teams zu transformieren. „Dafür muss das Topmanagement gewonnen werden“, erklärt sie. Dann gelte es, das Zielbild klar zu definieren und auch die Folgen einer solchen Transformation für jeden einzelnen hinzuweisen. „Die Digitalisierung verwirklichen“, „In Diversity investieren“, „Auf Führungskräfte der Generation Y hören“ und „In die Belegschaft investieren“ – all dies sind laut der vom Forschungsinstitut Oxford Economics erstellten Studie „Leaders 2020“, Verhaltensweisen von Managern, die in hervorragend geführten Unternehmen arbeiten. Und die vor dem Hintergrund unserer schnelllebigen Zeit mit ständigen Innovationen sowie technischen Neuerungen leben müssen. Die Forscher konnten dabei einen direkten Zusammenhang zwischen den oben aufgeführten Attributen und den umsatzstarken Unternehmen ausmachen – oder wie sie auch genannt werden: den „Digital Winners“.

Schnell wachsend und aufbauend auf einem digitalen Geschäftsmodell setzt der Matratzenhersteller Eve Sleep auf einen situativen Führungsstil. Derzeit wächst das E-Commerce-Start-up jeden Monat über 20 Prozent. Die Mitarbeiterzahl steigt. Alleine dieses Wachstum schon beinhaltet ständige Veränderungen und setzt Agilität voraus. „Mitarbeiter, die ein paar Monate dabei sind, bekommen Kollegen, für die sie verantwortlich sind und neue Aufgabenbereiche. Im Grunde ändert sich alle drei bis sechs Monate das Aufgabenprofil“, beschreibt Helmut Müller, Geschäftsführer für den deutschsprachigen Raum, die Situation. Hinzu kommt die internationale Vielfalt unter den Mitarbeitern: Deutsche, Engländer, Italiener, Franzosen, Schweizer, Amerikaner oder Belgier arbeiten in den Teams zusammen – mit unterschiedlichen Erfahrungsschätzen. In zwei Jahren will man die klare Nummer 1 Europas in dem Produktsegment sein.

Kompetenzen für eine digitale Welt: Beschäftigungseffekte durch die digitale Transformation; Quelle: Hays HR-REPORT 2017, Schwerpunkt Komptenzen für eine digitale Welt

Kompetenzen für eine digitale Welt: Beschäftigungseffekte durch die digitale Transformation; Quelle: Hays HR-REPORT 2017, Schwerpunkt Komptenzen für eine digitale Welt

Für Unternehmen, die sich nicht in die Kategorie der Start-ups einordnen, die Transformation aber erfolgreich mitgehen wollen, steht ein Change-Prozess an. „Ein professionelles Change-Management stellt den Dreh- und Angelpunkt einer erfolgreichen digitalen Transformation dar. Nur Unternehmen, die in der Lage sind, den angestrebten Wandel als umfassenden Prozess der Veränderung für das gesamte Unternehmen zu begreifen und zu gestalten, werden erfolgreich sein“, schreiben Ralf Kreutzer und Karl-Heinz Land im Buch „HR-Exzellenz“. Die Veränderungen können dabei auf der Ebene von organisatorischen Strukturen, von Prozessen, von Geschäftsfeldern und im gesamten Unternehmen stattfinden. Die Fähigkeit mitsamt den Möglichkeiten der Vernetzung – auch interkulturell und interdisziplinär – wird zu einem essenziellen Charakteristikum der digitalen Workspaces. Das Silodenken nach Abteilungen und Fähigkeiten löst sich somit auf. „Das hängt auch damit zusammen, dass der Kunde eine Dienstleistung aus einer Hand haben will“, wie Norbert Rotter, Vorstandsvorsitzender der Itelligence AG, erklärt. Anders beziehungsweise schwieriger bei der Einführung der Vernetzung sei es seiner Meinung nach beispielsweise in der produzierenden Industrie. Während die Umsetzung den Dienstleistungsunternehmen leichter falle – bei Itelligence gebe es zum Beispiel schon lange flache Hierarchien und der Digital Spirit würde sich in der DNA des Unternehmens befinden – würden in anderen Branchen noch andere interne Abgrenzungen, Hierarchien und Kulturen existieren, die schwieriger zu durchbrechen seien.

Workspaces

„Mitarbeitermobilität – anywhere, anytime. ‚Bring your own device‘ oder flexible Arbeitszeiten“, werden von Khaled Chaar, Managing Director Business Strategy bei den Cloud-Pionieren der Cancom-Tochter Pironet Datacenter AG & Co. KG, als die entscheidenden Schlagworte für moderne Szenarien eines modernen Cloud-Arbeitsplatzes genannt. Gerade Unternehmen, die dezentral und in vielen vielleicht kleinen Niederlassungen organisiert seien, würden durch Cloud-Anwendungen ihre Flexibilität und Agilität erhalten – ganz abgesehen von dem Wegfall dezentraler IT-Kosten. All diese Veränderungen spiegeln sich inzwischen in immer mehr Arbeitsplätzen wider. Und auch hierbei bekommen Mitarbeiter bei der Gestaltung und Umsetzung Mitspracherechte. Bei der Fiducia & GAD IT AG haben sich beispielsweise die Mitarbeiter monatelang intensiv mit der Arbeitswelt und der eigenen Wahrnehmung des Unternehmens beschäftigt. In unterschiedlichsten Projekten konnten sie sich aktiv einbringen.

Ziel war es, für den „Future Workspace“ eine Kombination für die flexible Arbeitsorganisation mit technisch modernster Infrastruktur hinzubekommen. Jörg Staff, Arbeitsdirektor und Vorstand Personal, Facilities und Revision des Unternehmens, erklärt: „Viele unserer Mitarbeiter werden in Zukunft an allen Standorten losgelöst vom Schreibtisch im Büro und von zu Hause arbeiten, weil sie immer mehr Aufgaben digital erledigen können. Gleichzeitig erhalten sie mehr Freiraum für kreativen Austausch.“

Auch der Büromöbelhersteller König & Neurath hat längst auf das Arbeiten 4.0 und die damit zusammenhängenden neuen Büroanforderungen reagiert. Peter H. Feldmann, Ergonomie-Spezialist des hessischen Unternehmens, hat dabei neben der Digitalisierung mitsamt der Produktion 4.0 auch die Attraktivität der Arbeitsplätze als einen wichtigen Faktor ausgemacht. So teilen sich beispielsweise mehrere Mitarbeiter einen Büroschreibtisch, wofür es schnell individuell einstellbare Möbel braucht. Außerdem würden fast die Hälfte aller neuen Arbeitsplätze inzwischen als Steh-/Sitzlösungen verkauft, so der Experte. Er sagt: „Kaum ein Unternehmen will gesundheitsförderliche Einrichtungen nur für bereits ‚geschädigte‘ Mitarbeiter ein­kaufen, sondern die Unternehmen wol­len von vornherein präventiv vorgehen.“ Um die Mitarbeiter auch zur Nutzung derartiger Lösungen zu motivieren, wurde eine smarte, ergonomische Anwendung entwickelt, ein sogenanntes Smart-Office-Konzept.

Neues Open-Content-Buchprojekt

Handbuch HR-Management

Im Sommer / Herbst 2017 erscheint unser neues gemeinfreies Werk als Fachbuch und Wegweiser für HR-Verantwortliche und Unternehmen, die den Wandel in die Arbeitswelten 4.0 erfolgreich meistern wollen. Die TREND-REPORT-Redaktion hat sich mit dem Handbuch „HR-Management“ das Ziel gesetzt, die Digitalisierung und ihre Auswirkungen auf das Personalwesen zu beschreiben. Ziel ist es, zukünftige Arbeitsformen und Arbeitsverhältnisse in den Mittelpunkt des Open-Content-Werkes zu stellen.
In Form von Fallbeispielen und Interviews zeigt die Redaktion auf, wie der kulturelle und technische Wandel hin zur „Arbeit 4.0“ gemeistert werden kann.
Unternehmer und Führungskräfte erhalten durch das Fachbuch neue Lösungs- und Denkansätze, damit sie die anstehenden technischen und kulturellen Veränderungen im Personalwesen positiv für sich nutzen können.
Schreiben Sie mit?

www.handbuch-hr.de

Auf ergonomische Möbel setzt auch die Warsteiner-Gruppe. Überhaupt nimmt in dem Unternehmen das betriebliche Gesundheitsmanagement mit­samt einer Work-Life-Integration einen ganz entscheidenden Stellenwert bei der Gesundheitsförderung ein. Flexible Arbeitszeitmodelle und Home-Office-Regelungen unterstützen die Lebensplanungen gerade junger Mitarbeiter. Mit der TÜV-Zertifizierung DIN SPEC 91020 wurde ein Gesundheitsmanagement systematisiert und in die bestehenden Arbeitsprozesse eingebunden. Schulungen und Trainings runden das Angebot ab.

Ort der Begegnungen: Der Trend geht hin zu agilen Arbeitsgruppen, die ihre Arbeitszeit und ihren Arbeitsort flexibel und selbst gestalten können.

Ort der Begegnungen: Der Trend geht hin zu agilen Arbeitsgruppen, die ihre Arbeitszeit und ihren Arbeitsort flexibel und selbst gestalten können.

Doch es sind nicht gesundheitliche Aspekte und Desk-Sharing-Lösungen, die in Zeiten der Arbeit 4.0 mit der Entwicklung mithalten. Günter Osterhaus, Leiter Planung und Projektmanagement bei Assmann Büromöbel, erwähnt einen weiteren Trend, der die Kreativität und Selbstbestimmung unterstützen soll: Co-Working-Spaces, in denen Menschen aus verschiedenen Sparten an einem Thema oder auch vielen kleinen Themen zusammenarbeiten.

Der informelle Austausch, das kreative Miteinander und das nötige Umfeld sollen oftmals dazu beitragen, frei von allen Zwängen Neues zu denken. Osterhaus sagt: „Co-Working-Spaces sollen zwanglos, offen und in eine ansprechende Atmosphäre getaucht sein.“ Unkompliziert essen und trinken sei außerdem ein wichtiger Faktor, genauso wie die Möglichkeit, Freunde zu treffen. Und natürlich wären Highend-Technik und ein schnelles Internet perfekt. Nichtsdestotrotz hat natürlich auch Osterhaus‘ Unternehmen auf die Flexibilisierungswünsche der Kunden reagiert. So wurde in Kooperation mit dem Fraunhofer Institut für integrierte Systeme und Bauelementetechnologie ein Schreibtisch entwickelt, der sich komplett autark über einen Akku betreiben lässt. Dieser Stromspeicher versorgt moderne Endgeräte mittels USB3.1-Typ-C-Anschlüssen mit der jeweils benötigten Spannung.

Wissen ist da, die Umsetzung hakt

Bei all dieser Themenvielfalt im Zusammenhang mit Arbeit 4.0 und den damit zusammenhängenden Herausforderungen, gäbe es viel Handlungspotenzial. Doch am Erkennen von Potenzialen scheint es noch zu hapern. So gibt laut einer Bitkom-Befragung nur etwas mehr als jedes dritte Unternehmen an, die Digitalisierung habe mittleres oder großes Potenzial, um neue Geschäftsmodelle zu entwickeln. Daher fordert Bitkom-Hauptgeschäftsführer Dr. Bernhard Rohleder: „Unternehmen sollten bei der digitalen Transformation größer denken. Wer hervorragende Produkte herstellt, sollte überlegen, wie er sie mit wertvollen Dienstleistungen koppeln kann. Und wer bislang stark nachgefragte Dienstleistungen anbietet, der sollte schauen, ob er ein ganzes Ökosystem dazu aufbauen kann.“

Wem dies als Ansporn nicht reicht, der kann sich auch die Zahlen zu Gemüte führen, die Isabell M. Welpe nennt: „Fast 90 Prozent der Firmen, die 1955 unter den Fortune 500 gelistet waren, waren im Jahr 2014 nicht mehr auf dieser Liste. Und Prognosen gehen davon aus, dass in den nächsten zehn Jahren circa 40 Prozent der Firmen, die heute auf der Liste stehen, von dieser Liste verschwinden.“

von Christoph Berger

Anwendung des Machine Learning bei der Analyse von Kapitalmärkten

Fallstudienarbeit
Hochschule: Hochschule für Oekonomie & Management
Standort: Münster
Studiengang: Bachelor Wirtschaftsinformatik
Veranstaltung: Fallstudie / Wissenschaftliches Arbeiten
Betreuer: Prof._Dr._Uwe_Kern
Typ: Fallstudienarbeit
Themengebiet: Machine Learning
Autor(en): Tobias Waning, Alexander Brun, Hendrik von der Haar
Studienzeitmodell: Abendstudium
Semesterbezeichnung: SS16
Studiensemester: 2
Bearbeitungsstatus: begutachtet
Prüfungstermin: 6.6.2016
Abgabetermin: 5.6.2016

Inhaltsverzeichnis

[Verbergen]

  • 1 Einleitung
  • 2 Grundlagen
    • 2.1 Prozess des Machine Learnings
      • 2.1.1 Lernverfahren
      • 2.1.2 Lernansätze & Algorithmen
      • 2.1.3 Anwendungsgebiete
    • 2.2 Finanzmarkt
      • 2.2.1 Akteure des Finanzmarktes
      • 2.2.2 Definition des Kapitalmarktes
      • 2.2.3 Aufgaben-, Funktionen und Bereiche des Kapitalmarktes
    • 2.3 Machine Learning zur Prognose Finanzmarktspezifischer Daten
      • 2.3.1 Datenaufnahme und Vorverarbeitung
      • 2.3.2 Umgang mit den zu verarbeitenden Merkmalen
      • 2.3.3 Validierung der erhobenen Daten
    • 2.4 Analysetechniken
      • 2.4.1 Fundamentalanalyse
      • 2.4.2 Technische Analyse
  • 3 Anwendung des Machine Learning – Aktienkursprognosen
    • 3.1 Grundlage der zu lernenden Daten
    • 3.2 Erstellung lernfähiger Merkmale
      • 3.2.1 Chartdeskription
      • 3.2.2 Technische Indikatoren
      • 3.2.3 Metadaten
      • 3.2.4 Skalierung
    • 3.3 Merkmalsselektion
    • 3.4 Einteilung der Objekte in Klassen
    • 3.5 Klassifikation
    • 3.6 Ergebnisse
  • 4 Schlussbetrachtung
  • 5 Fußnoten
  • 6 Quellen- und Literaturverzeichnis
  • 7 Abkürzungsverzeichnis
  • 8 Tabellenverzeichnis
  • 9 Abbildungsverzeichnis

1 Einleitung

Seit den ersten wissenschaftlichen Abhandlungen über das Forschungsobjekt der künstlichen Intelligenz Ende der 50er Jahre gewinnt die Thematik zunehmend an Relevanz. KI wird mittlerweile in allen neueren Gebieten der Technik eingesetzt und in Hinblick auf effizientere Verwendungsweisen in den jeweiligen Einsatzgebieten kontinuierlich weiterentwickelt und optimiert. KI, als solche, stellt sich als ein komplexes Gebiet dar, welches einerseits »versucht […] Intelligenz zu verstehen«[1] und andererseits einen Beweis für das Verständnis entwickelt, »[…] indem es intelligente, technische Systeme erschafft«[1]. Aufgrund der Komplexität des Forschungsobjekts umfasst die KI gegenwärtig eine Vielzahl von unterschiedlichen Bereichen, deren Inhalte sich auf einem Spektrum zwischen allgemein (z.B. das Lernen und die Wahrnehmung) und hochspezialisiert (z.B. das Beweisen mathematischer Behauptungen) anordnen lassen. Fortschreitende Entwicklungen in Technik und Wissenschaft, welche ursprünglich einfache Tätigkeiten, zunehmend komplexer und abstrakter werden lassen, können heute nicht mehr ohne umfassende Analysen durchgeführt werden. Mit den Analysen hochkomplexer technischer Prozesse geht zudem häufig ein exponentiell steigendes Datenaufkommen einher. Dementsprechend basieren diese Analysen häufig auf einer Vielzahl an Faktoren. KI, insbesondere der Bereich des Machine Learning, bietet in diesem Zusammenhang eine Option auf Optimierung der Analysetätigkeiten.

Laut gängigen Definition stellt Machine Learning ein Lernprinzip dar bei dem Computersysteme durch Anwendung und Erforschung von Verfahren befähigt werden, selbstständig Wissen aufzunehmen und zu erweitern. Das Ziel dieser Verfahrensforschung ist es, ein vorhandenes Problem besser lösen zu können als vorher[2]. Maschinelle Lernverfahren ermöglichen es, im Gegensatz zu manueller Revision durch humanitäre Kapazitäten, komplexes Datenmaterial effizient zu verarbeiten. Ein anschauliches Beispiel im Hinblick auf die Optimierung von Analysetätigkeiten bietet der Finanzmarkt.

Das folgende Fallbeispiel dient in diesem Zusammenhang der näheren Erläuterung: Stellen Sie sich vor Sie sind eine Frau, Ende 40 und möchten nun einen Kreditantrag für Ihr Eigenheim stellen. Ihr Lebensgefährte hat ein unbefristetes Arbeitsverhältnis bei einem großen Maschinenhersteller und Sie arbeiten als Beamtin beim Finanzamt ihres Kreises. Diese Aspekte sollten ohne Probleme dafür sprechen, dass ihr Kreditantrag genehmigt wird und sie mit dem Bauvorhaben ihres Eigenheims ohne Umwege starten können. Nach den ersten Gesprächen mit Ihrem Berater bei der Bank, welcher Zuversichtlich hinsichtlich der Genehmigung des Kreditantrags ist, sollte dem Konzept des Eigenheims kein Hindernis mehr im Weg stehen. Einige Tage später bekommen sie jedoch eine Mitteilung von der Bank in der ihr Kreditantrag abgelehnt wurde. Noch im gleichen Zug nehmen Sie Kontakt zu Ihrem Berater bei der Bank auf, welcher sich diese Entscheidung auch nicht erklären kann[3]. Dieses Fallbeispiel zeigt eine fiktive Situation auf, bei der jedoch nicht Menschen die Entscheidung getroffen haben, den Kreditantrag abzulehnen, sondern Maschinen. Alle Kriterien des Kreditantrags werden hierbei mit Risikofaktoren und Mustern anderer Kreditnehmer verglichen, um einen möglichen Kreditausfall zu prognostizieren. Um solche verschiedenen Muster und Risikofaktoren zu erkennen und vergleichen zu können, gibt es verschiedene Lernansätze und -verfahren.

Die vorliegende Arbeit thematisiert diese Lernansätze und -verfahren im Bezug auf das Machine Learning, als eine Unterkategorie der KI. Im Hinblick auf die ausgehende These soll diskutiert und exemplarisch dargestellt werden, inwiefern sich maschinelle Lernverfahren zur Prognose finanzmarktspezifischer Daten eignen. Die Arbeit gliedert sich dabei in vier Hauptkapitel. Das erste Hauptkapitel dient dabei der Einführung in die Thematik des Machine Learning und skizziert die allgemeinen Prozesse im Hinblick auf die Lernstrategien, Lernmethoden und Anwendungsbereiche. Anschließend erfolgt eine Darstellung der möglichen, durch das Machine Learning zu analysierenden, Bereiche des Finanzmarktes. Ausgehend von diesen Darstellungen ergibt sich die Frage, inwiefern das Machine Learning für die Prognose finanzmarktspezifischer Daten eingesetzt werden kann, welche abschließend diskutiert wird.

Das zweite Hauptkapitel beschreibt den Einsatz des Machine Learning zur Prognose finanzmarktspezifischer Daten. Es soll Aufschluss darüber geben, ob das Machine Learning als solches erfolgreich auf dem Aktienmarkt eingesetzt werden kann. Um diese Aussage treffen zu können, werden die verschiedenen Prozesse des Machine Learning hinsichtlich der Analysefähigkeit im Bezug auf Finanzdaten überprüft. Der Prozess des Machine Learning unterteilt sich dabei in fünf unterschiedliche Verarbeitungsstufen: Datenerhebung und Vorverarbeitung, Erstellung lernfähiger Merkmale, Merkmalsselektion sowie der Klassifikation[4].

Die Ergebnisse sowie abschließende Diskussionen bezüglich der Verwendbarkeit von maschinellen Lernverfahren auf dem Kapitalmarkt werden im vierten Kapitel erörtert. Dabei wird eine umfassende Schlussbetrachtung angeführt, die Aufschluss darüber geben soll, inwiefern das Machine Learning auf dem Aktienmarkt verwendet werden kann.

2 Grundlagen

2.1 Prozess des Machine Learnings

2.1.1 Lernverfahren

Abbildung 2.1: Die drei Säulen des Lernens

Abbildung 2.1: Die drei Säulen des Lernens

Die lernende Maschine soll auf möglichst effiziente Weise und ohne gravierende Abweichungen die ihr übermittelten Daten klassifizieren. Folglich müssen alle relevanten Merkmale selektiert und berücksichtigt werden, um die relevanten Daten klassifizieren zu können. Es existieren insgesamt drei verschiedene Verfahrensweisen, um die vorhandenen Daten zu annektieren. Gemäß Keller (2000) ist zwischen überwachtem Lernen (Supervised Learning) und nicht-überwachtem Lernen (Unsupervised Learning) zu unterscheiden[5].

Im Unterschied zu der Lernmethode des nicht-überwachten Lernens werden bei dem überwachten Lernen keinerlei Schlussfolgerungen durch die Maschine selbst getroffen. Dies bedeutet, dass die kognitive Anstrengung bei dem Prozess des Selektierens seitens des Lehrers (z.B. des Programmierers) erfolgt[6].

Im Gegensatz zum Supervised Learning werden bei der oben bereits erwähnten Methode des nicht-überwachten Lernens selbst neue Theorien durch die Maschine konzipiert. Damit dieses System durch Experimente und Beobachtungen strukturiertes und verwendbares Wissen erhält, müssen eine erhebliche Anzahl von Schlussfolgerungen durchgeführt werden[7].

Laut Stuart Russel und Peter Norvig (2012) existieren nicht nur die zwei elementaren Lernmethoden überwachtes bzw. nicht-überwachtes Lernen, sondern ebenfalls das sogenannte Reinforcement Learning (verstärkendes Lernen). Bei dieser Methode erhält die zu lernende Maschine ein bestimmtes Feedback in Form von Verstärkungen, Belohnungen oder Bestrafungen[8].»Beispielsweise könnten das Fehlen eines Trinkgeldes am Ende einer Fahrt für den Taxi-Agenten ein Hinweis darauf sein, dass er etwas falsch gemacht hat«[9].

2.1.2 Lernansätze & Algorithmen

Um Aufschluss darüber zu geben, wie die zu lernenden Daten mit Hilfe verschiedenster Algorithmen klassifiziert werden können, beschreibt dieser Absatz drei exemplarische Ansätze zur Klassifikation der Daten.

  • Künstliche neuronale Netze
  • Naive Bayes Klassifikation
  • K-Nearest Neighbor

Das Ziel der künstlichen neuronalen Netze ist es, die Arbeitsweise des menschlichen Gehirns zu imitieren und dieses als mathematisches Modell darzustellen[10]. Diese Form der Klassifikationsweise wird dann eingesetzt, um komplexe Relationen zwischen Ein- und Ausgabewerten zu erkennen. Künstliche Neuronen simulieren die Funktionsweise einer biologischen Nervenzelle und setzen sich aus einzelnen Einheiten zusammen, welche aus vier verschiedenen Komponenten bestehen: Soma, Dendriten, Axon und den Synapsen. Das mathematische Äquivalent zur biologischen Nervenzelle besteht ebenfalls aus der Soma, welche in drei grundsätzlichen Funktionen aufgeteilt ist: Eingabefunktion, Aktivierungsfunktion sowie der eigentlichen Ausgabe, welche an die Ausgabeverknüpfungen weitergeleitet werden (Axon). Jeder einzelnen Eingabeverknüpfung wird einer Gewichtung zugeordnet. Diese Gewichtung bzw. Verstärkung von bestimmten Eingangssignalen (Dendriten) wird durch die sogenannten Synapsen (Bias-Gewicht) durchgeführt[11]. Demnach ergibt sich die folgende Abbildung für das mathematische Modell eines Neurons[12]:

Abbildung 2.2: Modell eines Neurons

[13]Abbildung 2.2: Modell eines Neurons

Im Gegensatz zu der bereits genannten Klassifikationsmethode der neuronalen Netze trifft der Naive Bayes Klassifikator, welcher zur Familie der überwachten Lernverfahren gehört, die Annahme, dass jedes einzelne Element autonom von den restlichen Elementen existiert[14]. »Das bedeutet, dass jedes einzelne Merkmal einen unabhängigen Wahrscheinlichkeitsbeitrag liefert, dass ein Objekt einer bestimmten Klasse angehört (Kotsiantis & Pintelas, 2005). Die Wahrscheinlichkeit dass ein Objekt der Klasse K angehört kann als a posteriori Wahrscheinlichkeit nach Bayes ausgedrückt werden«[15]:

In Anlehnung an: Thom (2012), S. 59

In Anlehnung an: Thom (2012), S. 59

Diese Gleichung kann an einem Beispiel erläutert werden. Der Naive Bayes-Filter wird beispielsweise dazu verwendet, um E-Mails zwei bestimmten Kategorien zuzuweisen: Spam oder nicht-Spam. Durch eine Modifikation der oben aufgeführten Gleichung ergibt sich ein Konstrukt, welches zur Klassifikation von E-Mails in den beiden bereits genannten Kategorien durchgeführt wird.

In Anlehnung an: Linke (2003)

In Anlehnung an: Linke (2003)

Die elementare Frage, welche bei der Verwendung des naive Bayes Algorithmus hinsichtlich der Spam-Filterung gestellt werden muss, ist, »wie hoch die Wahrscheinlichkeit ist, dass die Nachricht, die aus den n Wörtern Bild:wi.png besteht, zur Kategorie Spam beziehungsweise Ham gehört«[16]. Ham bezeichnet in diesem Kontext eine, im Gegensatz zum Spam, erwünschte E-Mail.

Die Problematik, komplexe Sachverhalte zu klassifizieren, wird durch diesen Algorithmus deutlich vereinfacht. Ein weiterer gravierender Vorteil des „Naive Bayes“ Klassifikators ist die hohe Konvergenzgeschwindigkeit, sowie der geringere Speicherbedarf während der Trainingsphase der zu lernenden Maschine. Ein weiterer Ansatz zur Differenzierung der zu lernenden Datensätze ist das k-Nearest Neighbor Prinzip. Wie der Naive Bayes Klassifikator gehört die K-Nearest Neighbor Methode zum Verfahren des überwachten Lernen. Das Konzept des „nächsten Nachbarn“ trifft die Entscheidungen anhand der nächstgelegenen Trainingsobjekte im Merkmalsraum[17]. Dabei werden die nächsten Nachbarn in einer Mehrheitsentscheidung mit einbezogen[18].

Das k-Nearest Neighbor Prinzip findet beispielsweise im Bereich der Bonitätsprüfung Verwendung. Um zu erfassen, welche Person ihre Rechnung bezahlt bzw. nicht bezahlt, werden diese Personen in zwei bestimmte Klassen eingeteilt (Klasse 1 = Person bezahlt Rechnung; Klasse -1 = Person bezahlt Rechnung nicht). Die Klassifikation findet nur mittels der Merkmale Alter und der Höhe des Einkommens statt. Andere Einflüsse werden in diesem Beispiel nicht berücksichtigt. Um nun zu ermitteln, ob eine Person A den Betrag einer Rechnung begleichen würde, werden nun zum Beispiel die Klassenzugehörigkeit der fünf nächsten Nachbarn ausgewertet und mit der Person A verglichen. Hinsichtlich der Merkmale Alter und Einkommen haben in diesem Beispiel in der Vergangenheit drei von fünf Personen mit den nächstgelegenen Ausprägungen im Merkmalraum ihre Rechnung bezahlt. Nur zwei Personen haben den Prozess der Bezahlung nicht durchgeführt. Demnach wird die Person A der Klasse 1 zugeordnet. Ein überaus großer Vorteil des „k-Nearest Neigbor“ Klassifikators ist, dass im Prinzip kein Training der zu lernenden Maschine benötigt wird, sondern nur die Merkmalsvektoren (in diesem Fall Alter und Einkommen) »der einzelnen Objekte und deren Klassenetikett gespeichert werden«[19][20].

2.1.3 Anwendungsgebiete

Abbildung 2.3: Anwendungsgebiete des Machine Learning

[21]Abbildung 2.3: Anwendungsgebiete des Machine Learning

Die unter 2.1.2 genannten Lernverfahren des Machine Learning finden in vielen alltäglichen Bereichen bereits Verwendung. »Neben dem Einsatz in der Bioinformatik, Robotik und für die physiologische Mustererkennung (Sprach-, Handschrift- oder Gesichtserkennung), werden Formen des Machine Learning unter Anderem zur Textkategorisierung und für medizinische Zwecke (Diagnose, Prognose und Wirkstofferkennung) herangezogen«[22].

Weitere Teilbereiche der Wirtschaft, in denen das Machine Learning bereits integriert wurde, sind die Marktanalyse (Marketing) und das Finanzwesen. Abbildung 2.2 veranschaulicht die anfallenden Datenmengen in den jeweiligen Anwendungsgebieten, welche von den Systemen basierend auf unterschiedlichen Lernverfahren verwendet werden[23].

2.2 Finanzmarkt

Auf allen Finanzmärkten weltweit werden finanzielle Mittel von dem Kapitalanbieter (Anleger) zu den Kapitalnachfragern (Investoren) übermittelt. Diese These wird durch die Abbildung 2.3 veranschaulicht. Der Bereich der Kapitalanbieter setzt sich aus dem Sektor der privaten Haushalte zusammen. Aufgrund der Bereitstellung des Kapitals durch die Anleger erhalten diese einen Gegenwert, welcher oft in Form von Wertpapieren ausgeschüttet wird. Die Investoren setzen sich aus zwei Teilbereichen zusammen: Unternehmen und Staat. Die Vermittlung des eingesetzten Kapitals, sei es Eigenkapital oder Fremdkapital, wird durch so genannte Finanzintermediäre durchgeführt. Dazu gehören z.B. Banken, Versicherungen, Bausparkassen und Fondsgesellschaften. Diese Institutionen agieren dementsprechend als Transportunternehmen der Finanzanlagen[24].

Der Teil des Kapitals, welcher nicht zur Finanzierung von inländischen Sachinvestitionen verwendet wird, fließt als Netto-Kapitalexport ins Ausland. Der Netto-Kapitalexport errechnet sich durch Kapitalexporte minus Kapitalimporte. Es ergibt sich die logische Schlussfolgerung, dass aus der Sicht des Inlands das Geldvermögen in Form von Netto-Auslandsforderungen steigt, das Ausland aber hingegen Netto-Verbindlichkeiten gegenüber dem Inland eingeht, sodass sich das Geldvermögen vermindert[25].

Abbildung 2.4: Kapitalvermittlung auf Finanzmärkten

[26]Abbildung 2.4: Kapitalvermittlung auf Finanzmärkten

2.2.1 Akteure des Finanzmarktes

Damit der tägliche Betrieb des Finanzmarktes gewährleistet werden kann, ist die Interaktion verschiedenster Akteure erforderlich. Die Abbildung 2.4 zeigt die wichtigsten Akteure des Finanzmarktes mit den dazugehörigen Institutionen. Der folgende Abschnitt beschreibt die Interaktion und Kommunikation der Akteure untereinander und deren Funktionen auf dem Finanzmarkt.

Abbildung 2.5: Wichtige Akteure des Finanzmarktes

[27]Abbildung 2.5: Wichtige Akteure des Finanzmarktes

Zentralbanken

»Zentralbanken handeln im gesamtwirtschaftlichen Interesse«[28]. Laut Sperber (2014) ist es die wesentliche Aufgabe der europäischen Zentralbank (EZB) für Geldwertstabilität innerhalb der Mitgliedsländer der Europäischen Währungsunion zu garantieren. Dazu gehört es, Konjunkturen zu stimulieren aber auch Rezessionen frühzeitig zu erkennen, um diesen positiv entgegenwirken zu können. Die EZB soll vor allen Dingen jedoch für eine gewisse Preisstabilität sorgen, d.h. es soll sowohl ein Anstieg des Preisniveaus um mehr als zwei Prozent jährlich als auch ein Rückgang des Preisniveaus vermieden werden. Umgangssprachlich ist die Zentralbank die Bank des Staates und der Banken. Somit agiert eine Zentralbank als letzte Refinanzierungsquelle der Kreditinstitute und fungiert als Hausbank des Staates.[29].

Geschäftsbanken

Zu den primären Aufgaben der Geschäftsbanken gehört das sogenannte Commercial Banking. Bei dem Commercial Banking handelt es sich um die Entgegennahme von Kundeneinlagen und die Gewährung von Fremdkapital. Zudem organisieren die Geschäftsbanken den allgemeinen Zahlungsverkehr und den Währungstausch. Neben den Zentralbanken sind die Geschäftsbanken ausnahmslos einer der wichtigsten Akteure am Finanzmarkt, da sich ihre Aufgabenbereiche auf die komplette Volkswirtschaft orientiert. Neben dem Commercial Banking existiert das sogenannte Investment Banking. Dieser Zweig des Bankgeschäfts behandelt hauptsächlich Tätigkeiten wie z.B. die Vermögensverwaltung von Kunden, der Handel von Wertpapieren, Mergers & Acquisitions (Fusionen und Übernahmen) sowie Corporate Finance (Unternehmensfinanzierung)[30].

Institutionelle Investoren

»Hierbei handelt es sich einmal um Unternehmen, die im Rahmen ihrer Geschäftstätigkeit (Bausparkassen, Versicherungen) Einzahlungen entgegennehmen und dieses Kapital für eine Zwischenzeit anlegen und verwalten«[31]. Darüber hinaus investieren andere Institutionen wie Stiftungen, Universitäten oder Kirchen ihre finanziellen Mittel, welche durch Mitgliedsbeiträge oder Sponsoren zusammenfließen. Zudem gibt es sogenannte Pensionskassen, welche durch Beiträge vom Arbeitgeber sowie -nehmer gefüllt werden. Große Unternehmen wie Daimler, Volkswagen oder Siemens verwalten solche »Pensionsfonds«, die über mehrere Jahre hinweg eine beachtliche Summe an Vermögen aufbauen. Dieses Kapital, welches von Fondsmanagern verwaltet wird, kann dem Arbeitnehmer nach seiner Pensionierung dann als zusätzliche Betriebsrente zur Verfügung gestellt werden[32].
Kapitalanlage- bzw. Investmentgesellschaften

Kapitalanlage- bzw. Investmentgesellschaften sind spezielle Unternehmen, welche Investmentfonds emittieren. Zumeist handelt es sich bei diesen Unternehmen um Tochtergesellschaften von Banken. Das Konzept des Investmentfonds arbeitet nach folgendem Prinzip: Die Anleger investieren einen bestimmten Betrag und erhalten dafür im Gegenzug Fondsanteile ihrem Depotwert gutgeschrieben. Über solche Anteilsverkäufe kommen in dem Investmentfonds idealerweise mehrere hundert Millionen Euro zusammen, welcher hier als „Topf“ betrachtet werden kann, in den die Kapitalgeber investieren. Durch den Erwerb solcher Fondsanteile an einem diversifizierten Portfolio kann somit das Risiko der Investition minimiert werden[33]. Dieses Prinzip der Geldanlage ist für Kunden interessant die nach einer weniger risikobehafteten Investitionsmöglichkeit suchen.

Abbildung 2.6: Grundprinzip von Investmentfonds

[34]Abbildung 2.6: Grundprinzip von Investmentfonds

2.2.2 Definition des Kapitalmarktes

»Zum Markt für langfristige Finanzierungen (Laufzeit mehr als 4 Jahren) gehören zum einen der Kapitalmarkt«[35]. Üblicherweise wird der Kapitalmarkt auch als Wertpapiermarkt bezeichnet, da an diesem hauptsächlich börsenfähige Wertpapiere wie z.B. Aktien oder Anteile an Investmentfonds emittiert und gehandelt werden. Unterschieden wird in Anleihen-, Renten- und Aktienmarkt. Der bereits genannte Renten- und Aktienmarkt wird aufgeteilt in Primär- sowie Sekundärmarkt. Diese beiden Formen des Aktienmarkts werden in Kapitel 2.2.3 dieser Arbeit erläutert. Eine andere Umschreibung des Pimär- bzw. Sekundärmarkts ist der organisierte Kapitalmarkt. Alle Wertpapiermärkte werden unter diesem Begriff definiert. Der Gegensatz zum organisierten Kapitalmarkt ist der nicht organisierte Kapitalmarkt. Dieser befasst sich hauptsächlich mit dem direkten bzw. indirekten Handel von Darlehen, Beteiligungen und Hypotheken zwischen Anbietern und Nachfragern. Der Kontrast zum Kapitalmarkt ist der sogenannte Geldmarkt. Dieser behandelt Märkte für kurz- und mittelfristige Finanzierungen[36].

2.2.3 Aufgaben-, Funktionen und Bereiche des Kapitalmarktes

Der Kapitalmarkt als solches, welcher die Aufgabe hat die mittel- sowie langfristigen Kapitalanlagen bzw. -aufnahmen zu organisieren, besteht insgesamt aus zwei Teilbereichen:

  • Organisierter Kapitalmarkt
  • Nicht organisierter Kapitalmarkt

Diese beiden Bereiche des Kapitalmarktes handeln hauptsächlich Wertpapiere. Dazu gehören unter anderem Aktien und Industrie-, Bank- und Staatsanleihen sowie Anteile an Investmentfonds. Ein weiterer Bestandteil des Kapitalmarktes sind die Märkte für Hypothekendarlehen. All diese Anlageformen sind für die langfristigen Finanzierungen ausgelegt[37].

Der organisierte Kapitalmarkt behandelt zumeist alle längerfristigen Transaktionen unter Einschaltung von Kreditinstituten und Kapitalsammelstellen. Die ausgeprägteste Form des organisierten Kapitalmarktes ist die Börse. Der organisierte Kapitalmarkt steht unter ständiger Beobachtung des Staates. Das Gegenstück des organisierten Kapitalmarktes ist der nicht organisierte Kapitalmarkt. Zu diesem Teil des Kapitalmarktes gehören insbesondere Kreditbeziehungen zwischen Unternehmen, zum Beispiel in Form eines langfristigen Lieferantenkredits. Ebenfalls Kreditbeziehungen zwischen privaten Haushalten sowie zwischen Unternehmen und Haushalten sind Bestandteil des nicht organisierten Kapitalmarktes[38].

Ein sehr guter Träger dafür, um Kapital in Umlauf zu bringen, sind Wertpapiere. Kapitalsuchende Unternehmen (KN) oder der Staat lancieren Wertpapiere in Form von Geldmarktpapieren, Anleihen oder Aktien, welche üblicherweise von Banken bzw. einer Gruppe von Banken an die Kapitalinvestoren (KA) verkauft werden. Diese erstmalige Kapitalvermittlung geschieht auf dem Primärmarkt, welcher in Abbildung 2.6 auf der linken Seite zu erkennen ist. Der Kapitalnachfrager, in diesem Falle das Unternehmen, welches seine Wertpapiere emittiert, erhält für eine bestimmte Anzahl von Aktien den entsprechenden Gegenwert. Dieser Prozess ist an dem Geld- bzw. Wertpapierstrom in der Grafik deutlich zu erkennen. Die Kapitalinvestoren, welche während der Erstemission der Wertpapiere auf dem Primärmarkt beispielsweise Aktien eines Unternehmens erworben haben, können diese erworbenen Wertpapiere auf dem so genannten Sekundärmarkt in Umlauf bringen. Die Wertpapiere werden lediglich anderen Kapitalanbietern verkauft. Zusammenfassend ist der Sekundärmarkt eine Plattform für den Handel mit bereits in Umlauf befindlichen Wertpapieren. Dieser Handel mit Wertpapieren, welche sich bereits im Umlauf befinden, wird auch als Börse bezeichnet und obliegt bestimmten gesetzlichen Regelungen und Kontrollen. Ein weiterer Sektor des Sekundärmarktes ist der außerbörsliche Handel, welcher auch »Telefonhandel« genannt wird[39].

Abbildung 2.7: Emission und Handel von Wertpapieren

[40]Abbildung 2.7: Emission und Handel von Wertpapieren

Neben der Kapitalvermittlung haben die Finanzmärkte noch andere Funktionen, wie die Losgrößentransformation. Bei dieser Art der Transformation werden viele kleine Anlagebeträge von den Banken gebündelt, um eine Finanzierung großer Investitionen zu ermöglichen. Neben der Losgrößentransformation existieren noch die Fristentransformation und die Risikotransformation[41].

  • Fristentransformation: Bei der Fristentransformation wird gezielt von der Überlassungsdauer der angelegten Gelder eines Unternehmens abgewichen[42]
  • Risikotransformation: »Risikotransformation bewirkt, dass das Risiko eines Unternehmens von vielen Anlegern gemeinsam getragen wird«[43]

2.3 Machine Learning zur Prognose Finanzmarktspezifischer Daten

Die Börse ist ein elementarer Teil des Finanzmarktes. Die Grundlage zur Prognostizierung von Finanzdaten wie z.B. Aktien- oder Fondsverläufe sind die Historiendaten, welche in Betracht gezogen werden müssen. Da progressive Computersysteme des 21. Jahrhunderts dieses enorme Datenaufkommen aufgrund verschiedener Klassifikationsalgorithmen deutlich schneller analysieren können als der Mensch, werden immer mehr analytische Aufgaben an Maschinen delegiert. Die Bedingung für Durchführung dieser analytischen Aufgaben sind das Festlegen von definierten Rahmenbedingungen.

2.3.1 Datenaufnahme und Vorverarbeitung

Als Prämisse für die Prognoseerstellung durch progressive Computersysteme des 21. Jahrhunderts, muss ein relevanter Datenbestand vorliegen. Beim erstellen besagter Datenprämisse muss akkurat ausgewählt werden welche Daten zu berücksichtigen sind, da jeder nicht zielführende Datensatz die Datenprämisse verfälscht[44]. Beim Erheben der Datenprämisse ist es, aufgrund der Erhebungsmethoden und der Beschaffenheit der zu erhebenden Daten,(Video, Ton, Kursverläufe, etc.) denkbar, dass die Datenprämisse nachteilig beeinflusst wird. N Die Aufnahme eines Stimmmusters ist beispielsweise durch Hintergrundgeräusche verfälscht. Hierdurch ist die Datenprämisse inkorrekt. Es ist unumgänglich das die kompromittierenden Geräusche aus dem Stimmmuster isoliert und entfernt werden, bevor dieser Datensatz Teil der Datenprämisse wird. Derlei korrigierendes Eingreifen im vorne herein nennt sich Preprocessing. Ohne Preprocessing kann nicht gewährleistet werden, dass die Datenprämisse relevant und aussagekräftig für die angestrebten Zwecke ist.[45] Beim Erstellen der Datenprämisse müssen mandatorisch auch exogene Daten berücksichtigt werden. Am Beispiel eines Aktienkurses wird deutlich, dass der Kursverlauf unabhängig von der Art des Verlaufes (Positiv oder Negativ) unter anderem von politischen Entscheidungen abhängig ist. Unberücksichtigte exogene Einflüsse beeinträchtigen somit die Prognosequalität enorm. Aus dieser Erkenntnis kann gefolgert werden, dass bekannte und absehbare exogene Faktoren zwingend in die Datenprämisse aufgenommen werden müssen[46].

2.3.2 Umgang mit den zu verarbeitenden Merkmalen

Beim Studieren der Datenprämisse ergeben sich Merkmale mit differenzierter Aussagekraft über das Betrachtungsobjekt. Ein Betrachtungsobjekt wird als ein einzelnes Objekt der Datenprämisse definiert. Wird das Beispiel eines Aktienverlaufs zu Grunde gelegt, ist es denkbar, dass die Merkmale explizit das Betrachtungsobjekt skizzieren. Derlei Merkmale nennt man direkte Merkmale. Weiterhin ist denkbar, dass Merkmale, welche das Betrachtungsobjekt nur dann direkt skizzieren, wenn diese in Verbindung mit anderen Merkmalen studiert werden, existieren. Diese Merkmale nennen sich indirekte Merkmale. Es gilt aus dem kooperativen Studium der indirekten Merkmale, neue direkte Merkmale zu etablieren. Das Fusionieren von Merkmalen wird somit ein wesentlicher konstitutiver Bestandteil beim Studium von Merkmalen, um eine direkte Skizzierung des Betrachtungsobjektes zu erreichen. Merkmale mit gültiger Aussagekraft werden hierbei nicht verworfen, sollten diese mit einem nicht gültigem Merkmal fusioniert werden.[47]Merkmale, die sich auf identische Betrachtungsobjekte beziehen, weisen eventuell differenzierte Ausprägungen auf. Diese Sachlage berücksichtigend, ist es erforderlich, die studierten Merkmale zu Standardisieren, um das Betrachtungsobjekt generisch zu definieren.[48]Merkmale mit differenzierten Ausprägungen sind generalisierbar. Beim Generalisieren von Merkmalen muss sich darauf besonnen werden, dass durch die Generalisierung, mandatorisch spezifische Daten verloren gehen. Notwendigerweise muss entschieden werden, welcher Spezifikationsgrad und welche Generalisierungsstufe benötigt werden.[49]

2.3.3 Validierung der erhobenen Daten

Die erstellten Klassifikationen müssen kritisch bewertet werden, ob diese das Betrachtungsobjekt genügend beschreiben. Hierzu können die vorhandenen Daten in drei verschiedene Teile unterteilt werden. Es wird ein Teil benötigt anhand dessen die Klassifizierungen angepasst werden. Ein weiterer Teil dient zur Überprüfung der Klassifikationen, damit aufgrund dieser Klassifikationen, Parameter für die Erstellung von Prognosen erstellt werden können. Um die definierten Parameter auf Gültigkeit zu verifizieren, wird der dritte Teil der Daten verwendet. Damit eine möglichst präzise Verifizierung der Parameter erzielt wird, muss mandatorisch die Anzahl der Verifizierungsdurchläufe maximiert werden. Eine maximierte Anzahl Verifizierungsdurchläufe garantiert eine höhere Präzision. Auf diese Weise ist es realisierbar zu verifizieren, ob die definierten Parameter nur für einen Teil oder für die Gesamtheit der Datenprämisse Gültigkeit besitzen.[50]

Abbildung 2.8: Anzahl der Durchgänge n eines Zufallsexperiments

[51]Abbildung 2.8: Anzahl der Durchgänge n eines Zufallsexperiments

2.4 Analysetechniken

2.4.1 Fundamentalanalyse

Mithilfe der Fundamentalanalyse wird der Wert eines Unternehmens unter Berücksichtigung verschiedener Faktoren bewertet. Der Ansatz der Fundamentalanalyse folgt der Annahme, dass das betrachtete Unternehmen einen wirtschaftlichen Wert besitzt, dem sich der zugehörige Aktienkurs langfristig anpasst. Der Wert des betrachteten Unternehmens wird als innerer Aktienwert definiert. Mit dem inneren Aktienwert wird die Aktienrentabilität bewertet, was Rückschlüsse auf die Branchenrentabilität ermöglicht. Eine geläufige Methode ist die Present Value Theory. Die Present Value Theory besagt, dass der innere Wert der Aktie durch die Summe der Dividenden und weiteren Geldwerten Vorteile auf eine einzelne Aktie entfallen und auf den aktuellen Tag abgezinst werden. Das Gegenwartswert- oder Barwertkonzept ermöglicht die Errechnung des inneren Wertes[52].

Abbildung 2.9: Gegenwart- & Barwertrechnung

[53]Abbildung 2.9: Gegenwart- & Barwertrechnung

Das vereinfachte Konzept des Price-Earning-Ratio-Verfahrens (PER) erlaubt Rückschlüsse auf die Zukunftsaussicht der Kursgewinne eines studierten Unternehmens. Durch dieses Mittel wird eine möglichst zeitnahe Einsicht der Kursgewinnchancen von Firmenaktien gewonnen. Es ist mandatorisch zu berücksichtigen, dass die Kursgewinnchancen sich in Abhängigkeit zu dem inneren Wert der Aktie befinden[54].

Abbildung 2.10: PER Berechnung

[55]Abbildung 2.10: PER Berechnung

Erwähnenswert ist, dass Konklusionen den globalen Markt betreffend, anhand der Skizzierung eines einzelnen Unternehmens erarbeitet wurden, nur von ungenügender Qualität sind. Es sollte ebenso vermieden werden, anhand des globalen Marktes Schlussfolgerungen für ein spezifisches Unternehmen zu ziehen. Um Konklusionen annehmbarer Qualität zu ziehen, ist es mandatorisch Unternehmens spezifische, Branchenspezifische sowie globale Aspekte zentralisiert zu beurteilen[56].

In Anlehnung an: Erhardt (2006), S. 11 Abbildung 2.11: Verhältnis Global, Branche und Unternehmen

In Anlehnung an: Erhardt (2006), S. 11 Abbildung 2.11: Verhältnis Global, Branche und Unternehmen

Verfahren, um Unternehmens spezifische, Branchenspezifische und globale Aspekte zu Studieren, sind die Top-Down-Analyse und die Bottom-Up-Analyse. Die Top-Down-Analyse verfolgt den Ansatz globale Daten auf die Branche zu spezifizieren, die hierdurch etablierten Konklusionen werden wiederum auf die Unternehmen spezifiziert. Bei der Bottom-Up-Analyse wird vice versa versucht, die unternehmensspezifischen Konklusionen auf die Branche zu generalisieren, welche wiederum auf den globalen Markt generalisiert werden[57].

2.4.2 Technische Analyse

Abbildung 2.12: Die drei definierten Trends

[58]Abbildung 2.12: Die drei definierten Trends

Die Technische Analyse – teilweise auch als Chartanalyse bekannt –versucht durch Beobachtung von Marktbewegungen Kurstrends vorherzusagen. Es wird davon ausgegangen, dass alle nötigen Marktinformationen bereits in den Kursverläufen enthalten sind und eine Analyse der betriebswirtschaftlichen Daten des Unternehmens nicht notwendig ist. Die Technische Analyse lässt sich in drei Ansätze unterteilen [59]

1. Die Marktbewegung diskontiert alles

2. Kurse bewegen sich in Trends

3. Die Geschichte wiederholt sich selbst
1. Die Marktbewegung diskontiert alles

Alles was die Kurse beeinflussen kann wird durch den Marktpreis wiedergespiegelt. Es wird angenommen, das die Kurse steigen sobald die Nachfrage größer dem Angebot ist und die Kurse fallen sobald das Angebot die Nachfrage übertrifft. Durch diese Annahme ist es beim Machine Learning möglich ein Verhaltensmuster aus dem Kursverlauf und dem Marktpreis zu erstellen, um daraus eine Vorhersage zu den weiteren Kursverläufen ableiten zu können.

2. Kurse bewegen sich in Trends

Eine Analyse von Aktienverläufen erfordert mandatorisch die Einteilung besagter Verläufe in Trends. Trends verdeutlichen Aktienverläufe und ermöglichen somit Wahrscheinlichkeitsprognosen über den weiterführenden Verlauf[60]. Als Prämisse für die Einteilung in Trends muss definiert werden welche Anzahl von Trendarten zu spezifizieren sind. Ferner ist Bestandteil der Prämisse, welche Distinktionen es zwischen den spezifizierten Trends existieren und wie besagte Trends sich unterscheiden. Um Trends zu definieren, werden die Verlaufsrichtungen der kurzzeitigen Kursspitzen (weiterhin genannt Gipfel) und der kurzzeitigen Kurstiefen (weiterhin Täler genannt) studiert. Hierdurch werden die Trends wie folgt definiert. Eine Seitwärtsbewegung von Gipfeln und Tälern definieren einen Seitwärtstrend, eine sukzessive Steigerung von Gipfeln und Tälern definieren einen Aufwärtstrend vice versa definiert einer sukzessiver Abfall der Gipfel und Täler einen Abwärtstrend[61].

Abbildung 2.13: Primär- Sekundär- und Tertiärtrend

[62]Abbildung 2.13: Primär- Sekundär- und Tertiärtrend

Jeder Trend wird als langfristig, kurzfristig oder mittelfristig kategorisiert[63]. Es gilt zu berücksichtigen das jede Trendart innerhalb eines Aktienverlaufes unendlich häufig existiert. Um die Menge der zu betrachtenden Trends zu minimieren ist mandatorisch zu definieren welcher Zeitraum als langfristig, kurzfristig oder mittelfristig gültig ist. Eine Zeitraumdefinition für langfristige Trend ist eine Trenddauer von größer sechs Monaten. Mittelfristige Trends sind als gleichbleibende Trendverläufe von drei Wochen bis mehreren Monaten definiert. Alle Trendverläufe, die kürzer als drei Wochen andauern, werden als kurzfristiger Trend definiert[64].

Zusammenfassend wurde definiert, dass Trends aus Gipfeln und Tälern bestehen. An dem Zeitpunkt an dem ein Tal niedrig genug ist, wechselt das Verkaufsverhalten in ein Kaufverhalten. Hierdurch wird der vorherrschende Abwärtstrend zu einem Aufwärtstrend. Dieser exakte Zeitpunkt wird als Unterstützung definiert. Vice versa wird der exakte Zeitpunkt eines Wechsels von Aufwärtstrend zu Abwärtstrend als Widerstand definiert[65].

Abbildung 2.14: Darstellung von Unterstützung und Widerstand

[66]Abbildung 2.14: Darstellung von Unterstützung und Widerstand

Eine Widerstandslinie ist nicht ausserstande einen steigenden Trend zu unterbrechen, infolge dessen ist die Widerstandlinie als kurzzeitige Unterbrechung definiert. Für eine Unterstützungslinie folgt der gleichen Gesetzmäßigkeit. Ein fortgesetzter Aufwärtstrend kann dadurch bestimmt werden, dass die sukzessive aufeinander folgenden Unterstützungen einen höheren Kurspunkt beschreiben, als die jeweilige vorhergehende Unterstützung. Ein fortgesetzter Abwärtstrend ist bestimmbar, sobald die sukzessive aufeinander folgenden Widerstände tiefere Kurspunkte beschreiben, als der jeweilige vorangegangene Widerstand. Es ist unumgänglich zu definieren wie Kurswechsel bestimmt wird. Ein Kursabfall kann bestimmt werden, sobald in einem Aufwärtstrend ein Kursabfall die vorhergegangene Unterstützungslinie unterschreitet. Nach dieser Gesetzmäßigkeit kann ebenfalls bestimmt werden, dass ein Kursanstieg vorliegt, sobald in einem Abwärtstrend die vorhergegangene Widerstandslinie überschritten wird. Die Bestimmung eines Kursanstiegs oder Kursabfalls, ermöglicht eine Trendumkehrung oder den Übergang in einen Seitwärtstrend[67]. Wird nach einem Trendwechsel von einem Abwärtstrend die höchste bisherige Widerstandslinie deutlich überschritten wird diese beim Trendwechsel als neue Unterstützungslinie gewertet. Dieses vorgehen nennt sich Rollentausch von Unterstützung und Widerstand[68].

Abbildung 2.15: Darstellung eines Trendbruchs

[69]Abbildung 2.15: Darstellung eines Trendbruchs

Abbildung 2.16: Darstellung eines Rollentausches zwischen Widerstand und Unterstützung

[70]Abbildung 2.16: Darstellung eines Rollentausches zwischen Widerstand und Unterstützung

3. Die Geschichte wiederholt sich selbst

„Der Schlüssel zum Verständnis der Zukunft liegt im Studium der Vergangenheit, oder die Zukunft ist nur eine Wiederholung der Vergangenheit[71]“ Hierbei wird angenommen, dass sich Aktientrends in der Vergangenheit bereits abgespielt haben. Vergangene Kursinformationen bzw. Markteinflüsse, die sich der Annahme nach wiederholen müssten, können dabei für eine Vorhersage verwendet werden.

3 Anwendung des Machine Learning – Aktienkursprognosen

3.1 Grundlage der zu lernenden Daten

Grundlage für die zu lernenden Daten sind einerseits die Quellen, welche zur Prognosenerstellung benötigt werden und zum anderen die Methodik, um diese auswerten zu können. Um Aktienprognosen mittels Machine Learning erstellen zu können, müssen zu Beginn die Quellen hinsichtlich der benötigten Daten definiert werden. Für eine Prognose sollten die Daten aus Quellen stammen von der sich auch andere Aktieninhaber Informationen beschaffen würden, um somit ein Verhalten zwischen Angebot und Nachfrage besser bestimmen zu können. Quellen die Informationen über zukünftige Dividenden, Zinssätze und zukünftige Kurse liefern sind hierfür geeignet. Die Informationen können automatisiert aus Onlineportalen bzw. Nachrichtenmagazinen entnommen oder manuell eingegeben werden. Bei einer manuellen Eingabe ist eine weitere Kontrolle durch den Anwender möglich was auf der einen Seite zwar den Aufwand erhöht, aber auf der anderen Seite sicherstellt das nur geprüfte Daten für eine Prognose verwendet werden. Als Grundlage für die maschinelle Auswertung der Daten, wird in dieser Arbeit auf das neuronale Netz weiter eingegangen. Ein neuronales Netz besteht aus künstlichen Neuronen und stellt einen Teil der künstlichen Intelligenz dar. Bei der Mustererkennung, Kategorisierung oder auch Prognose werden neuronale Netze erfolgreich eingesetzt[72]. Im Gegensatz zu einem Computerprogramm müssen neuronale Netze nicht programmiert oder auf eine bestimmte Situation angepasst werden. Mit vorhandenen Daten kann so ein Netz angelernt werden und auf Grundlage dessen, in einer neuen bzw. unbekannten Situation mit den gelernten Daten assoziativ reagieren[73]. Intern arbeitet ein Netz mit unterschiedlichen Neuronen die miteinander in verschiedenen Schichten verknüpft sind. In dem Inputlayer werden die Eingaben von der Außenwelt entgegengenommen und gewichtet an Hiddenlayer weitergeleitet. Der Hiddenlayer bewertet die Eingangssignale und gibt diese Anschließend an den Outputlayer weiter, wo diese dann ausgegeben werden. In einigen Anwendungsfällen, wird auf die Verwendung eines Hiddenlayer verzichtet. Dann werden die Informationen direkt von dem Input- an den Outputlayer weitergegeben. Die Neuronen haben so gesehen als Aufgabe Informationen aus der Umwelt oder von anderen Neuronen aufzunehmen und diese in abgewandelter Form weiterzugeben. Im Outputlayer wird anschließend das kumulierte Ergebnis ausgegeben[74]. Je nach Lernstand des neuronalen Netzes erfolgt durch eine Menge von Eingaben, eine auf die Eingaben bezogene Menge von Ausgaben. Durch den Lernstand können die Neuronen individuell Verknüpfungen zu anderen Neuronen aufbauen, Gewichtungen ändern oder Verknüpfungen trennen[75]. Wie bereits erläutert, sind die einzelnen Neuronen mit einer Gewichtung verknüpft. Je höher der Absolutbetrag der Gewichtung ist, um so größer ist auch der Einfluss auf die nächste Einheit. Eine positive Gewichtung gibt an, dass ein Neuron einen erregenden Einfluss auf den nächsten Layer ausübt. Eine Negative Größe bedeutet, das das Neuron hemmend auf den anderen Layer wirkt. Bei einem Wert von Null wird keine Wirkung auf die nächste Schicht ausgeübt. Neben der Gewichtung wird das Ergebnis zum nächsten Neuron auch durch dessen Output-Leistung oder auch Output-Betrag genannt, beeinflusst. Erst die Multiplikation zwischen Output-Betrag und Gewichtung ergibt das Ergebnis welches als Input an das nächste Neuron weitergeben wird. Input für das nächste Neuron kann auch als Formel angegeben werden: Input der Unit i: input = Output-Betrag * Gewichtung Bei einem Output-Betrag von „-3“ und einer Gewichtung von „-0,5“ würde ein Input von „1,5“ am nächsten Neuron anliegen[76]. Der Inhalt des Outputlayers wird durch die Anordnung bzw. Gewichtung der einzelnen Neuronen bestimmt. Eine kleine Veränderung der Gewichtung kann somit schon das Ergebnis der vorhin im Beispiel genannten Kreditzusage beeinflussen. Im Folgenden wird ein exemplarisches Beispiel gezeigt, wie die einzelnen Verbindungen der Neuronen bewertet werden können. Die Neuronen die in der Tabelle mit „0“ bewertet werden haben keine direkte Verbindung zueinander.

Abbildung 3.1: Aufbau eines neuronalen Netzes mit Gewichtungsbeispiel

[77]Abbildung 3.1: Aufbau eines neuronalen Netzes mit Gewichtungsbeispiel

Tabelle 3.1: Gewichtungsbeispiel angeordneter Neuronen
1 2 3 4 5 6 7 8 9
1 0 0 0 0 0 0 0 0 0
2 0 0 0 0 0 0 0 0 0
3 0 0 0 0 0 0 0 0 0
4 0 0 0 0 0 0 0 0 0
5 0,6 0 0 0 0 0 0 0 0
6 -0,1 0,4 0,9 0 0 0 0 0 0
7 0 -0,5 -0,6 0,5 0 0 0 0 0
8 0 0 0 0 0,3 0,3 0 0 0
9 0 0 0 0 0 0,6 0,9 0 0

Abbildung 3.2: Aufbau eines neuronalen Netzes mit Bias-Neuronen

[78]Abbildung 3.2: Aufbau eines neuronalen Netzes mit Bias-Neuronen

Durch die Aktivierungsfunktion der Neuronen, kann das Ergebnis auch weiter beeinflusst werden. Es kann z.B. ein Schwellwert (Schwellenwertfunktion) definiert werden, welcher nur beim Übersteigen die Funktion aktiviert[79].

Eine weitere Möglichkeit die Ausgabe zu beeinflussen stellt das Bias-Neuron bzw. Bias-Unit da. Ein Bias-Neuron ist ein zusätzliches mit dem Faktor 1 konstantes Neuron in dem Input- bzw. Hiddenlayer definiert ist. Die Gewichtung fällt entweder positiv oder negativ auf die anderen Neuronen aus. Bei einer positiven Gewichtung sorgt das Bias-Neuron dafür, dass die empfangene Einheit auch aktiv bleibt, wenn kein starker positiver Input der anderen Neuronen vorliegt. Bei einer negativen Gewichtung besteht die Gefahr das die verbundenen Units in einem negativen bzw. inaktiven Zustand verharren. Weiterhin ist einen Negativen Gewichtung von Vorteil, wenn ein Schwellenwert simuliert werden soll. Ein bestimmtes Ergebnis wird nur durch übersteuern des Bias-Neurons zugelassen. Die anderen Input-Neuronen müssen somit ungefähr ein einheitliches Ergebnis wiederspiegeln, um das Bias-Neuron übersteuern zu können. Der Bias-Wert ist somit eine Stellschraube, um das Ergebnis anpassen zu können[80].

3.2 Erstellung lernfähiger Merkmale

Bevor Daten für die Erstellung lernfähiger Merkmale verwendet werden können, müssen diese zunächst Aufbereitet werden. Ein sauberer Datenbestand ist die Grundlage des Machine Learning. Der Computer wird auch mit dem besten Klassifikationsverfahren bei unzureichend gefilterten bzw. nicht angepassten Daten keine guten Ergebnisse erziehen[81]. Swingler erkannte, dass die Daten zuerst gesäubert werden müssen, um ein zufriedenstellendes Ergebnis zu erziehen[82]. Die Säuberung der Daten ist zwar mit einem relativ hohen Aufwand verbunden, hat aber einen entscheidenen Einfluss auf die Güte der Ergebnisse[83]. Eine gute Datenqualität bzw. dessen Datenvorverarbeitung ist eine Grundlage für das Machine Learning.

Abbildung 3.3: 2-zu-1-Aktiensplit

[84]Abbildung 3.3: 2-zu-1-Aktiensplit

Technische Handelssysteme die in den Jahren 1978-1984 auf Basis täglicher Kursdaten des US Futuresmarktes profitabel arbeiteten, erzielten in den Jahren 1985-2003 laut Park & Irwin keine positiven Erträge mehr. Schulmeister schrieb, dass die auf Tagesdaten basierenden technischen Handelssysteme seit den 1960er Jahren eine andauernde abnehmbare Profitabilität erwiesen, die ab den frühen 1990er Jahren unprofitable wurde. Eine Untersuchung hingegen Schulmeisters Studie, wurde auf Basis von 30-Minütigen Intervallen durchgeführt. Diese Untersuchung wies keine Abnahme der Profitabilität auf. Dr. Patrick René Thom führte aus diesem Grund eine weitere Untersuchung mit eher kurzfristigeren als täglichen Intervallen durch[85]. Er wählte ein Intervall von 15 Minuten aus, da nach seiner Ansicht hierdurch sowohl eine umfangreiche Datenbasis als auch eine hohe Aktualität der Kurse berücksichtigt sind. Die Untersuchung dauerte 1000 Handelstage und er hatte nachher eine Datenbasis von 26.000 Fünfzehn-Minuten Perioden. Neben dem Handelsvolumen lagen ihm die jeweiligen Eröffnungs-, Höchst-, Tiefst- und Schlusskurse vor. Die gewonnenen Rohdaten wurden in drei Stufen für eine Merkmalserstellung vorbereitet. In der ersten Stufe wurden Dividendenzahlungen und Kapitalmaßnahmen, wie das Einrechnen von Aktiensplits, in die Kurse durchgeführt. Trat ein Aktiensplitt ein, wurden alle Kurse durch den Faktor 2 von Thom dividiert und das Handelsvolumia anschließend verdoppelt[86]. In Abbildung 3.3 zeigt Thom grafisch wie er bei einem 2-zu-1-Aktiensplit vorgegangen ist. In der zweiten Stufe wurden die Daten auf mögliche Ausreißer untersucht. Kursänderungen von mehr als 10% wurden als Ausreißer definiert. Bei einem erkannten Ausreißer wurde ermittelt, ob es sich um einen fehlerhaften Datenpunkt oder einer existierenden Kursveränderung handelte. Fehlende Datenpunkte wären durch Interpolationsmöglichkeiten behandelt worden[87]. In der Dritten und letzten Stufe wurde die Vollständigkeit der Daten sichergestellt. Wie auch bei den fehlerhaften Datenpunkten wären hier fehlende Periodeneinheiten durch Interpolation behandelt worden[88]. Die so gewonnenen Daten können anschließend für weitere Maßnahmen zur maschinellen Prognose des Aktienkurses verwendet werden.

3.2.1 Chartdeskription

Abbildung 3.5: Vergleich zwischen Linienchart und Candlestickanalyse

[89]Abbildung 3.5: Vergleich zwischen Linienchart und Candlestickanalyse

Abbildung 3.4: Candlestickchart

[90]Abbildung 3.4: Candlestickchart

Um Kursverläufe und Kursänderungen schnell auf einem Blick erkennen zu können, werden diese meistens grafisch dargestellt. Dies kann z.B. mit einem Linienchart oder Balkendiagramm geschehen. Während Menschen diese Art von Darstellung leicht auswerten können, ist dies für Computer nicht sehr ideal. Für einen Rechner müssen die Daten numerisch bzw. Mathematisch beschrieben werden. Neben den Kursangaben, gehören auch Durchschnittswerte und Merkmale die eine relative Lage beschreiben zu den benötigten Daten. Relative Werte können aus der Differenz zwischen Eröffnungs-, Höchst-, Tiefst und Schlusskursen ermittelt werden. Mit einem Candlestickmuster können Kursverläufe für den Computer mathematisch beschrieben werden. Steigende Kurse werden mit einem weißen Kerzenkörper gezeichnet. An den beiden Äußeren Enden werden jeweils der Höchst und Tiefstkurs definiert. Der Höchstkurs oben und der Tiefstkurs unten. Der Schlusskurs wird direkt unter dem Höchstkurs und der Eröffnungskurs über dem Tiefstkurs angegeben. Fallende Kurse werden mit einem schwarzen Kerzenkörper beschrieben. Wie auch bei dem weißen Kerzenkörper wird der Höchstkurs ganz oben und der Tiefstkurs ganz unten definiert. Anders als beim weißen Kerzenkörper wird hier der Eröffnungskurs unter dem Höchstkurs und der Schlusskurs über dem Tiefstkurs beschrieben. Die folgende Abbildung stellt den Aufbau eines Candlesticks grafisch dar[91]. Abbildung 3.5 zeigt ein Beispiel wie Kursverläufe mit der Candlestick grafisch angezeigt werden können. Im oberen Bereich der Abbildung wird ein Linienchart einer Aktie dargestellt. Der untere Bereich zeigt dieses Linienchart in Candlestick-Notation. Die Größe, Farbe und Form der einzelnen Candlesticks liefern Informationen über Höchst-, Tiefst-, Schluss- und Eröffnungskurs der jeweiligen Periode. Die erstellten Candlestickmuster können anschließend für das Training von neuronalen Netzen für die Erstellung einer Aktienkursprognose verwendet werden.

3.2.2 Technische Indikatoren

Die technischen Indikatoren sollen helfen einen Trend möglichst früh erkennen zu können. Die verschiedenen technischen Indikatoren sollen als Ergebnis einen mathematischen Wert liefern, der aus den Kurs – und Handelsdaten ermittelt wurde. Hier wird auch versucht aus der Vergangenheit ermittelte Informationen in zukünftige Prognosen mit einfließen zu lassen. Für eine Vorhersage können verschiedene Oszillatoren verwendet werden. Im Rahmen dieser Arbeit wird nur auf begrenzte Zahl von der Vielfalt von Möglichkeiten mit Oszillatoren bzw. Indikatoren eingegangen. Ein Oszillator hilft dem Trader kurzfristige Extremsituationen zu erkennen und zu bewerten. Er warnt z.B. den Trader wenn ein Trend an Momentum verliert, bevor die eigentliche Situation bzw. Kursbewegung eintritt. Weiterhin können mit einem Oszillator Divergenzen angezeigt werden, das sich ein Trend seiner Vollendung nähert. Der Zeitpunkt in dem der Oszillator als Hilfsmittel verwendet wird, ist hier von entscheidender Bedeutung. Eine Oszillator-Analyse ist bei beginn bedeutender Kursbewegung nicht sehr hilfreich. Erst gegen Ende wird diese hilfreich[92].

Momentum

Abbildung 3.6: Beispiel eines Momentums

[93]Abbildung 3.6: Beispiel eines Momentums

Im Folgenden wird die Oszillator-Analyse „Momentum“ weiter erläutert. Das Momentum zeigt die Geschwindigkeit von Kursbewegungen Grafisch an. Es werden fortlaufend Kursdifferenzen von einem Aktienkurs für ein festes Zeitintervall berechnet. Um die Differenz zu ermitteln wird der Schlusskurs von dem letzen Intervall vom aktuellen subtrahiert. Für die folgenden Beispiele wird ein Zeitintervall von 10 Tagen angenommen. Die Formel lautet hierzu:

In Anlehnung an: Murphy (2003), S. 229

In Anlehnung an: Murphy (2003), S. 229

Ist der errechnete Wert größer als der vor 10 Tagen, dann sind die Kurse gestiegen. Der Wert wird also oberhalb der Nulllinie eingetragen. Ist der Wert kleiner als der vor 10 Tagen, dass sind die Kurse gefallen. Der Wert wird in diesem Fall unterhalb der Nulllinie eingetragen. Ist der Wert über der Nulllinie und steigt, dann ist eine Beschleunigung des Aufwärtstrends zu verzeichnen. Ist der Wert zwar über der Nulllinie aber auch ein Trend Richtung dieser zu verzeichnen, dann ist der Aufwärtstrend noch intakt, allerdings nur noch mit abnehmbarer Steigung. Fällt der Graph unter der Nulllinie ist der aktuelle Wert der Aktie geringer als vor 10 Tagen. Der Verlangsamung des Abwärtstrends wird deutlich, sobald die Linie wieder anfängt zu steigen. In der folgenden Abbildung wird ein Momentum mit einem Intervall von 10 Tagen gezeigt.

Relative stärke Index

Abbildung 3.7: RSI Beispiel

[94]Abbildung 3.7: RSI Beispiel

Ein weiterer technischer Indikator ist der „Relative stärke Index“ (RSI). Ein Vorteil von RSI ist es, dass dieser für eine Glättung von Verzerrungen und eine n konstanten Bandbreitenwert zwischen 0 und 100 liefert. Eine Schwäche des vorhin vorstellten „Momentums“ ist, dass plötzliche Veränderungen der Aktie einen starken Anstieg oder Abstieg der Momentumlinie hervorrufen können. Durch die Glättung des RSI wird dieser Ausriss auf einen konstanten Wert zwischen 0 und 100 gebracht. Weiterhin können mit dem Relativen stärke Index zwei Wertpapiere oder Branchen miteinander verglichen Werten. Es wird mit den Wertpapieren oder Branchen so gesehenen ein objektiver Benchmark durchgeführt. Die Formel hierzu lautet:

Murphy (2003), S. 241

Murphy (2003), S. 241

Ein Wert über 70 wird als überkauft angesehen, ein Wert unter 30 wird einer überverkauften Marktsituation angesehen. Die Abbildung 3.7 zeigt ein Beispiel von einem relativen stärke Index[95].
Aroon Oscillator

Der Aroon Oscillator wurde im Jahr 1995 definiert und wird dazu verwendet, um auf erste Anzeichen einer Trendwende reagieren zu können. Es wird davon ausgegangen, dass bei Aufwärtstrends regelmäßig neue Hochpunkte und bei Abwärtstrends neue Tiefpunkte erreicht werden. Aufgrund dieser Annahme wird die Anzahl der Perioden zwischen beiden letzten Hoch- und Tiefpunkten festgehalten, um anhand dessen, eine Vorhersage einer möglichen Trendwende erstellen zu können. „Aroon-Up“ und „Arron-Down“ sind maßgebliche Bestandteile des Aroon Oscillator. Die vergangenen Perioden die seit dem letzten Hoch auftraten werden mit „Aroon-Up“ und die vergangenen seit dem letzten Tief mit Aroon-Down gezählt[96]. Mit der folgenden Formel kann der Aroon Oscillator bestimmt werden:

[97]

3.2.3 Metadaten

Bei der Ermittlung der Metadaten werden exogene Größen betrachtet die sich nicht direkt auf das zu analysierende Unternehmen zurückführen lassen bzw. nicht zu dessen deskriptiven Merkmalen gehört. Die Entwicklung von Währungspaaren gehört beispielsweise zu diesen Metadaten. Steigt oder sinkt eine Währung im Kurs, dann hat dies Auswirkungen auf Unternehmen die ein Großteil Ihres Umsatzes in der entsprechenden Währung verzeichnen. Maßgeblichen Einfluss hat die Änderung des Wertes einer Währung auf die Importpreise bzw. dessen Exportumsatzes eines international arbeitenden Unternehmens. Unternehmen wie z.B. „The Coca Cola Company“ die einen Großteil ihres Umsatzes im Ausland verzeichnen, kann die Entwicklung zwischen den Währungen EUR und US Dollar, Einfluss auf das Unternehmensergebnis und somit auch auf den Aktienkurs bewirken. Neben Währungsdifferenzen haben auch Rohstoffpreise wie z.B. Ölpreise Einfluss auf die Preis- und Umsatzentwicklung auf Unternehmen. Vor allem produzierende Unternehmen sind hiervon betroffen. Die Rohstoffpreise nehmen Einfluss auf die Produktionskosten und diese müssen entweder durch einen geringeren Gewinn oder eine Preisanpassung dem Kunden gegenüber angepasst werden. Auch der Goldpreis kann auf den Wert einer Aktie Einfluss nehmen, selbst wenn das Unternehmen kein Gold verarbeitet oder damit handelt. Anhand des Goldpreises können Inflationserwartungen oder das Vertauen der Anleger abgeleitet werden. Die vorhin genannten Metadaten müssen für das Machine Learning als Merkmal in die Merkmalskategorie „Metadaten“ hinzugefügt und beachtet werden[98].

3.2.4 Skalierung

Durch die Skalierung können die ermittelten Werte in ein einheitliches Intervall überführt werden. Das Intervall kann Größen von -100 bis +100 Einheiten annehmen. Wichtig ist nur, dass alle Werte skaliert werden damit die relative Größe zueinander nicht verändert wird. Im Gegensatz zu dem RSI-Verfahren werden einzelne Ausreißer nicht eliminiert, es wird lediglich die Größe der einzelnen Werte angepasst. Die angepassten Werte können anschließend als Input für einzelne Klassifikatoren verwendet werden[99]. Weiterhin können mit der Univariate Skalierung einzelne Ausprägungen mit der Gesamteinheit verglichen werden. In dem bereits genannten Beispiel mit der Kreditzusage, könnte mittels Skalierung das Verhältnis zwischen „guten“ und „schlechten“ Kunden veranschaulicht werden. Um das Ergebnis zu erhalten, müssen diese in Relation gesetzt werden. Dabei ist Ausprägung bzw. die Wahrscheinlichkeit, das die einzelnen Merkmale zu den guten oder schlechten Kunden gehören, zu beachten. Um den Skalenwert für die „guten“ Kunden zu erhalten, muss die Anzahl der Merkmale der guten, durch die Anzahl der Merkmale der guten und schlechten Kunden dividiert werden[100].

3.3 Merkmalsselektion

Die primäre Aufgabe der Merkmalsselektion ist es ein gewisses Gleichgewicht zwischen dem Bestand inkrementeller Merkmale und einer Steigerung der Effizienz beim Verarbeiten der Trainingsdaten durch das Entfernen redundanter Merkmale herzustellen. Aufgrund der hohen Zufallswahrscheinlichkeit sowie der nicht linearen Beschaffenheit der finanzmarktspezifischen Daten gestaltet es sich überaus schwierig eine effiziente Weise der Merkmalsselektion durchzuführen. Innerhalb des Feldversuchs nach Thom wurden zum einen die Leistung von korrelations- und regressionsbasierter Filtermethoden sowie wrapperbasierte Selektionsmethoden geprüft. Bei einem Wrapper handelt es sich um ein Programm zur inhaltlichen Extraktion von Informationen. Wrapper werden beispielsweise dazu verwendet, um relevante Informationen wie Preis oder Geschwindigkeit eines Notebooks aus Angebotsseiten zu extrahieren. Diese werden anschließend dazu verwendet, um Angebote vergleichen zu können. Bei einem Lernproblem handelt es sich um eine Regression, wenn es sich bei y um eine Zahl wie z.B. das morgige Wetter handelt. In diesem Fall ist y das positive Ergebnis einer Hypothese im Bezug auf die Vorhersage neuer implementierter Beispieldaten. Realistisch betrachtet sucht man bei einem Regressionsproblem nur nach einem Erwartungs- bzw. Durchschnittswert, da die Wahrscheinlichkeit, den exakten Wert für y zu finden sich im Bereich 0 bewegt. Innerhalb der korrelations- und regressionsbasierten Filtermethoden nach Sperman oder Pearson wurde folgendes festgestellt: »Durch diese Filtermethoden wurde bei der Selektion mehr inkrementelle Information eliminiert als gewünscht, da deren Anwendung die Klassifikationsgüte verschlechterte«[101]. Im Gegensatz zu den regressionsbasierten Filtermethoden konnten die wrapperbasierten Selektionsmethoden wie z.B. die „Floating“ oder „Forward“ Suchmethode auf der Basis einer k-Nearest-Neighbor Klassifkation neue verwertbare Untermengen von Merkmalen ermitteln und selektieren. Das Ergebnis der Klassifikation konnte jedoch mit diesen zusätzlichen Merkmalen nicht verbessert werden, sondern lediglich innerhalb eines konstanten Bereichs gehalten werden. Das Verhältnis der erhöhten Rechenzeit steht somit in keinem positiven Zusammenhang mit der Trainings- und Klassifikationszeit. Aufgrund dieser Tatsachen ist in den nächsten Analyseprozessen auf die Verwendung von Filtern und Wrappern verzichtet worden[102].

3.4 Einteilung der Objekte in Klassen

Die Grundannahme bei der Klassifizierung von Objekten ist die Unterscheidung der studierten Objekte in steigende und fallende Kurse. Desweiteren gilt die Grundannahme das steigende und fallende Kurse in der gleichen Häufigkeit existieren. Diese Annahmen sind dahingehend riskant, das hierdurch die Möglichkeit existiert, das tatsächliche Kursbewegungen nicht berücksichtigt werden. Alle Kursrückgänge werden der Klasse Null zugewiesen, während alle ansteigenden Kursbewegungen der Klasse Eins angehören. Diese Zuordnung behält Gültigkeit, unabhängig von der Höhe der Kursänderung. Dadurch sollen Kursveränderungen von 0,0001% berücksichtigt werden. Die Realveränderung ist in derlei Fällen so niedrig, dass diese zu vernachlässigen ist und in der Praxis als „unverändert“ angesehen wird. Um diese Minimalveränderungen abzufangen, wird eine dritte Klasse verwendet. Aufgrund der Einführung einer dritten Klasse minimiert sich die Anzahl der zugeordneten Objekte und erhöht die Komplexität des Klassifikationsverfahrens. Eine „vertikale“ Abgrenzung des Kursverlaufes wird dadurch ermöglicht, dass alle Kursänderungen welche unterhalb von 10% einer definierten Standardabweichung stattfinden, der dritten Klasse zugeordnet werden. Es ist irrelevant, ob besagte minimale Kursabweichung positiv oder negativ definiert sind. Diese Abgrenzung wird als bewertungsfreie Zone definiert[103].

Abbildung 3.8: Abbildung der Vertikalen Abgrenzung / der "Grauzone"

[104]Abbildung 3.8: Abbildung der Vertikalen Abgrenzung / der „Grauzone“

Nach Implementierung dieses Verfahrens kann festgestellt werden, dass dadurch nicht die Klassifikationsqualität angehoben wird. Die Qualität der Klassifikation wird erhöht, sobald der Klassifikationszeitpunkt auf den Periodenhöchstkurs einer Betrachtungsperiode definiert wird. Begründet wird dies durch den Umstand, dass der Periodenhöchstkurs ein Zeitraum mit tatsächlicher Aufwärtsbewegung ist. Der Periodenhöchstkurs wird naturgemäß vor dem Ende der Betrachtungsperiode erreicht. Der Periodenhöchstkurs ist mandatorisch sowohl zeitlich als auch Wertetechnisch zu definieren. Hierfür wird auch die Periodendauer definiert. Es werden in der Praxis 15-Minuten-Perioden studiert. Liegt der Kurshöchstwert innerhalb der definierten Periodendauer über 0,15% vom Periodenschlussstand ist dies als Periodenhöchstwert definiert. Bewegungen unterhalb der definierten 0,15% werden nicht berücksichtigt und der Klasse Null zugeordnet[105].

Börsendaten unterliegen naturgemäßer Unsicherheiten und Zufälligkeiten. In Verbindung mit der binären Auswahlsweise der Klassifizierung, ist es denkbar, das auch sehr kleine Kursänderungen als Empfehlung interpretiert werden, um Aktien abzustoßen oder zu kaufen. Eine fehlerhafte Klassifizierung in Klasse Null, würde keine Handlung initiieren, entgegen einer fehlerhaften Klassifizierung in Klasse Eins. Daraus ergibt sich, das Primär die Anzahl der korrekten Klassifizierungen der klasse Eins im relativen Vergleich zu den inkorrekten Klassifizierungen der klasse Eins zu maximieren sind. Es ist also nachrangig die Gesamtheit der Fehlklassifizierung zu minimieren. Bei der Unterteilung in die Klassen Null und Eins, werden beide Prioritär identisch behandelt, was erfordert, das eine neue Priorisierung erfolgt. Die Priorisierung wird durch die Anpassung der Grenzwerte erreicht. Der Grenzwert für die Klassifizierung in Klasse Eins wird angehoben, woraus folgt, das die Anzahl der Objekte in Klasse Eins sich minimiert. Vice versa maximiert sich die Anzahl der Objekte in Klasse Null. Mandatorisch werden Objekte die Tatsächlich eine positive Kursänderung beschreiben, der Klasse Null zugeordnet, da die Kursänderung trotz positiver Tendenz zu niedrig ist. In der Gesamtheit wird die Aussagekraft der Klasse Eins ungeachtet dessen erhöht[106].

Abbildung 3.9: Abbildung der Anhebung der Klassifizierungsgrenze zur Klasse Eins

[107]Abbildung 3.9: Abbildung der Anhebung der Klassifizierungsgrenze zur Klasse Eins

3.5 Klassifikation

Ziel der Klassifikation ist es, nach wiederkehrenden Merkmalmustern zu suchen, um auf neue Situation besser reagieren zu können. Es wird davon ausgegangen, dass es eine Menge von Objekten gibt, die jeweils einer Klasse zugeordnet werden können. Bei der Klassifikation wird versucht einen Klassifikator zu erstellen, der neue bzw. unbekannte Objekte der richtigen Klasse zuweist[108]. Bezogen auf eine Aktienkursprognose wird versucht durch die Verwendung von Merkmalmustern den Kursverlauf besser zu charakterisieren. Dr. Patrick René Thom konnte im Rahmen seiner Arbeit 331 Merkmale generieren die er in den Kursverlauf charakterisieren musste. Die einzelnen Merkmale wurden anschließend in Fünf verschiedene Featuresubsets unterteilt:

Untergruppe Kategoriebezeichnung Anzahl Merkmale
[109]Tabelle 3.2: Aufteilung Featuresubsets
Subset A Chartdescription 110
Subset B Indikatoren und Transformationen 63
Subset C Erste Ableitung Indikatoren und Transformationen 58
Subset D Zweite Ableitung Indikatoren und Transformationen 58
Subset E Metadaten 58
Gesamtzahl Merkmale 331

Je Feature-Subset wurden 16000 Objekte für das Training der Klassifikation verwendet. Für Test und Validierungsprozesse wurden weitere 10000 Objekte vorbehalten. Dabei wurden die Zeitlich ältesten Daten für für das Training und die jüngsten Daten für die Validierung der Klassifikation verwendet. Um die höchstmögliche Stabilität der Klassifikation durch neuronale zu gewährleisten, wird ein Rastersuchverfahren durchgeführt. Zu diesem Zweck unterteilt Thom den Trainingsanteil des Feature-Subsets in zwei zeitlich zusammenhängende Datensätze. Der erste Teil (laut Thom ca. 75%) werden zum Testen verwendet, derweil dient der zweite Teil zur Überprüfung und Anpassung der Parameter und wird von ihm als „Tuningset“ betitelt. Um unter Verwendung des Tuningsets die jeweilige Klassifikationsgüte der trainierten neuronalen Netze zu überprüfen, wurden diese in acht weitere kleinere Datensätze zergliedert. Um die Zuverlässigkeit und Beständigkeit der neuronalen Netze zu bewerten, werden sowohl der erwartete Ergebniswert, als auch die Streuung des Erwartungswertes über die acht Teile des Tuningsets zum Vergleich herangezogen. Thom verwendet für die Erstellung eines Rankings die Fitnessfunktion.[110] Das neuronale Netz welches den höchsten Fitnesswert ɸ aufweist, eignet sich für den Ansatz des Machine-Learning.[111] Thom erkannte, dass die Kombination mehrere Klassifikatoren zuverlässiger urteilt als einzelne Klassifikatoren. Aus diesem Grund setzte er eine Kombination von Klassifikatoren ein, die laut Studien bei finanzmarktspezifischen Problemen des Machine Learnings gute Ergebnisse erzielen. neuronale Netzte, Support Vektor Maschinen und AdaBoost verwendete er unter anderem für die Klassifikation in seiner Arbeit.[112] Wird ein Klassifikator mehrmals angepasst, um die Klassifikationsgüte zu verbessern, desto unwahrscheinlicher wird es, dass bei der Klassifikation unbekannter Objekte das Ergebnis reproduzierbar ist. Durch eine Validierung des Klassifikationsalgorithmus auf die ungesehenen Daten, kann eine Erkenntnis über dessen Generalisierungsfähigkeit gewonnen werden. Weiterhin ist die Wahl der Methodik für die Datenauswertung sehr wichtig. Neuronale Netze bieten den Vorteil, nonlineare Zusammenhänge gut erkennen zu können. Allerdings besteht bei neuronalen Netzen eine höhere Gefahr des Overfitting bzw. Underfitting. Bei einer zu großen Anzahl der Neuronen bezogen auf die einzelnen Layer, ist es möglich das der Overfitting-Effekt eintritt und die Generalisierungsfähigkeit auf ungesehene Daten gehemmt wird. Aus diesem Grund entsteht ein Zielkonflikt zwischen Adaption und Generalisierungsfähigkeit des Neuronalen Netzes. Im Gegensatz zu den neuronalen Netzen ist die Erstellung von Support Vektor Maschinen weniger von der Wahl der Parameter abhängig. Nur der Parameter zur Fehlergewichtungskonstante und teilweise der Bandbreitenfaktor ist laut Thom zu optimieren.[113]

3.6 Ergebnisse

Im Folgenden wird auf die Ergebnisse, die durch das Machine Learning im Bezug auf Kapitalmärkten gewonnen wurden, weiter eingegangen. In diesem Kapitel werden die Resultate von Dr. René Thom bzgl. der Eignung verschiedener Klassifikatoren analysiert.

Thom verwendete für seine Analyse des Aktienmarktes jeweils fünf verschiedene Klassifikatoren für die selbe Anzahl an Merkmalkategorien, die zu insgesamt 31 Instrumenten trainiert wurden. Seine Gesamtanzahl an Klassifikatoren betrug demnach 775.[114] »Zu jeder einzelnen Kombination eines trainierten Klassifikators und einer Merkmalkategorie (A-E) bestehen jeweils acht Ergebnisse durch Unterteilung des Testdatensatzes in Unterdatensätze. Durch diese Unterteilung sind insgesamt 775*8=6200 Testvorgänge durchgeführt worden«[115] Um den Klassifikationserfolg und Stabilität bestimmen zu können, wird eine statische Größe zu jeder Klassifikator-Merkmalkategorie-Kombination ermittelt. Dazu versuchte Thom die Wahrscheinlichkeit einer richtigen Klassifizierung eines Objektes in Klasse Eins zu maximieren. Mit Unsicherheit behaftete Objekte sollten aus diesem Grund eher Klasse Null zugeordnet werden.[116] »Der positive prädikative Wert wird alsdann zur a priori 1-Klssenwahrscheinlichkeit (Wapr) ins Verhältnis gesetzt, indem mit Delta (∆) die Differenz dieser Größen errechnet wird.«[117] Über der Differenz aus positiv prädiktivem Wert und Wapr, wurde der Mittelwert „µ∆“ durch Thom bestimmt. Weiterhin wurde auch die Standardabweichung (ó∆) bestimmt, um die Stabilität eines Klassifikationsalgorithmus bestimmen zu können. Eine geringe Streuung steht dabei im Zeitablauf für ein stabiles Ergebnis. Der Mittelwert und die Streuung der Deltawerte wurde durch Thom in den Fitnesswert ɸ miteinbezogen. Als Resultat steigt der Fitnesswert mit steigendem Mittelwert und fallender Streuung der Deltawerte. Laut Thom besagt ein Fitnesswert von ≤ 1, das der Klassifikationsalgorithmus keinen Vorteil über die naive Allokation aller Objekte in Klasse Eins bietet. Thom betrachtete im weiteren Verlauf die Mittelwerte und Standardabweichungen als Klassifikationsfehler (µKF ; óKF). Durch die Klassifikationsfehler wird der Anteil der insgesamt fehlerhaft zugeordneten Objekte wiedergegeben. Mit der Sensitivität gibt Thom wieder, welcher Anteil der Klasse Eins angehörenden Objekte korrekterweise der Klasse Eins zugeordnet wurden. Besitzt µ∆ bei geringer Sensitivität einen hohen Wert, dann deutet dies darauf hin, das nur wenige Objekte der Klasse Eins zugeordnet werden konnten. Mit der Spezifität gibt Thom den Anteil der korrekterweise der Klasse Null zugeordneten Objekte wieder. Die Spezifität wird in seiner Arbeit mit µSP und mit óSP angegeben[118]. Die folgende Abbildung zeigt einen Überblick über die durch Thom verwenden Klassifikatoren und deren Ergebnisse.

Abbildung 3.10: Vergleich der Klassifikatoren

[119]Abbildung 3.10: Vergleich der Klassifikatoren

Bezeichnung Beschreibung
[120]Tabelle 3.3: Beschreibung der Klassifikationsvariablen
Wapr A priori 1-Klassenwahrscheinlichkeit
µKF Mittelwert der Klassifikationsfehler
óKF Standardabweichung der Klassifikationsfehler
µKF Mittelwert der Klassifikationsfehler
µSE Mittelwert der Sensitivitätswerte
óSE Standardabweichung der Sensitivitätswerte
µSP Mittelwert der Spezifitätswerte
óSP Standardabweichung der Spezifitätswerte
µMW Mittelwert der gemittelten Sensitivitäts- und Spezifitätswerte
óMW Standardabweichung der gemittelten Sensitivitäts- und Spezifitätswerte
min Minimum der Differenzen aus positivem prädiktiven Wert und Wapr
max Maximum der Differenzen aus positivem prädiktiven Wert und Wapr
ó Standardabw. der Differenzen aus positivem prädikativen Wert und Wapr
µ Mittelwert der Differenzen aus positivem prädikativen Wert und Wapr
ɸ Fitnesswert nach Gleichung 4.51

Weiterhin überprüfte Thom, ob eine vorhersage kurzfristiger Aktienkursrenditen mit den vorgestellten Methoden auch wirtschaftlich sind. Neben dem Wertverlust einer Aktie, müssen auch die Kosten für das Handelssystem und die eigentliche Berechnung berücksichtigt werden. Es wird also überprüft, ob eine Überrendite bzgl. der Investitionen erzielt werden kann. Um dies zu ermitteln, legte Thom folgende Randbedingungen fest: Das Klassifikationsziel bestand darin, einen neuen Höchstkurs von mindestens 0,15% gegenüber dem Schlusskurs der Vorperiode erzielen zu können. Wie in Kapitel 3.2 „Erstellung lernfähiger Merkmale“ bereits geschrieben, verwendete er dafür ein relativ kleines Zeitintervall von 15 Minuten. Um das Risiko größerer Verluste zu minimieren, wurde eine Verlustschwelle von 0,3% definiert. Sobald diese Schwelle überschritten wurde, wird die bestehende Position geschlossen und ein Verlust akzeptiert. Bei einem neutralen Ergebnis wird die Position am Ende der Periode geschlossen. Für seinen Versuch verwendete Thom 31 Instrumente und stellte diese der Entwicklung des Dow Jones Industrial Average gegenüber. In dieser Arbeit wird nicht weiter auf die einzelnen 31 Instrumente eingegangen, sondern das kumulierte Ergebnis betrachtet.[121]»Durchschnittlich konnten 13% Gewinn mit dem Handelssystem erzielt werden, während die Direktinvestition in die Instrumente im Betrachtungszeitraum im Mittel 33% Verluste brachte.«[122] Einige Aktien arbeiteten im Handelssystem unprofitabel, obwohl mit diesen im Rahmen der Meta-Klassifikation gute und teils, sogar sehr gute Ergebnisse aufwiesen.[123] »Spätestens an dieser Stelle wird deutlich, dass positive Klassifikationsergebnisse allein keine erfolgreiche, praktische Umsetzung der Vorgaben der künstlichen Intelligenz garantieren.«[124] Im Bezug auf seine Ergebnisse hält Thom folgendes fest: »Es ist zu beachten, dass bei der praktischen Umsetzung des Handelssystems Gebühren anfallen, die in dieser Betrachtung vernachlässigt worden sind. Weiterhin muss berücksichtigt werden, dass der theoretische Ausführungskurs im „Live-Trading“ nicht immer erreichbar ist. Hierdurch fiele der tatsächliche Gewinn in der praktischen Umsetzung wesentlich geringer aus. Dennoch unterstützt die theoretische Profitabilität dieses Handelssystems die These, dass verhersagbare Komponenten der Aktienkursentwicklung existieren, und dass diese durch maschinelles Lernen aufgedeckt werden können.«[125]

4 Schlussbetrachtung

Im Verlauf dieser Arbeit konnte durch die kritische Untersuchung des Einsatzes verschiedener Lernverfahren bei der Analyse von finanzmarktspezifischen Daten aufgezeigt werden, dass sich maschinelle Lernverfahren nur bedingt für die erfolgreiche Prognose von Aktienkursen eignen. Die Betrachtung der Ergebnisse verdeutlicht, dass es Teilbereiche des Aktienmarktes gibt, die mit Hilfe des Machine Learning analysiert und prognostiziert werden können. Dennoch war und ist es nicht möglich, mit den vorhandenen Kombinationen aus verschiedenen Klassifikatoren und Merkmalen eine vollständige Prognose eines Aktienkurses vorhersagen zu können.

Zudem konnte festgestellt werden, dass bei der Analyse von Kapitalmärkten, insbesondere dem Aktienmarkt, eine Vielzahl von Faktoren berücksichtigt werden müssen, um eine erfolgreiche Prognostizierung von Aktienkursen ermöglichen zu können. Im Hinblick auf das exponentiell steigende Datenaufkommen ist es ein elementarer Faktor die Qualität der verwendeten Daten zu prüfen, da lediglich aufbereitete und gesäuberte Datensätze für ein Klassifikationsverfahren positive Ergebnisse liefern und somit den Erfolgsfaktor im Hinblick auf die Prognose stark beeinflussen. Bezüglich der Prägnanz der zuvor genannten Datenprämisse ist es ausschlaggebend, dass bekannte und absehbare exogene Faktoren berücksichtigt werden und in die Analyse der Datenbasis mit eingebunden werden. In dieser Arbeit wurde zudem nachgewiesen, dass direkte sowie indirekte Merkmale eine elementare Rolle im Bezug auf die Aussagekraft für das Betrachtungsobjekt spielen. Das Ziel war es, eine hohe Generalisierung der Merkmale zu erreichen, um im Nachhinein diese für weitere Berechnungen sowie Vergleiche nutzen zu können. Bei einer anschließenden Klassifikation mussten die Daten ausschließlich aufgeteilt werden, um diese auf Grund von Prognostizierbarkeit, Kontrollierbarkeit und Anpassbarkeit verwenden zu können.

Bei den Analysetechniken wurden zwei verschiedene Herangehensweise untersucht. Hierbei wurde zwischen der Fundamentalanalyse und der technischen Analyse differenziert. Die Fundamentalanalyse erwies sich im Gegensatz zur technischen Analyse als förderlich, falls der „innere Wert“ einer Aktie herangezogen werden sollte. Durch den Vergleich zwischen inneren und tatsächlichen Wert der Aktie, ergibt sich eine weitere Möglichkeit, um die Kauf- oder Verkaufsentscheidung bewerten zu können. Prinzipiell dient die Fundamentalanalyse der Bewertung eines Unternehmens. Neben der Fundamentalanalyse wurden ebenfalls die Hintergründe bzw. Funktionen der technischen Analyse untersucht. Die Technische Analyse versucht unter anderem die Kurse in unterschiedliche Trends einzuordnen, um anhand dessen, einen Aufwärts-, Abwärts oder Seitwärtstrend herausfiltern zu können. Für die Durchführung dieser Analysetechnik wurden verschiedene Technische Indikatoren auf dessen Vor- und Nachteile bzw. Möglichkeiten untersucht. Neben der verwendeten Analysetechnik sowie der Säuberung der Daten ist es ein bedeutender Faktor, gleicherweise die Quellen und Auswertmethodik zu priorisieren. Während der Entwicklung dieser Arbeit wurden mehrere Methoden der künstlichen Intelligenz dargestellt und miteinander verglichen. Exemplarisch wurde dabei auf die Verwendung neuronaler Netze, sowie deren Gewichtungseigenschaften und Methoden eingegangen. Beispielsweise wurde dabei die Erkenntnis getroffen, dass schon eine minimale Veränderung hinsichtlich der Gewichtung eines Entscheidungsträgers maßgeblichen Einfluss auf die getroffene Entscheidung hat.

Um es den verschiedenen Methoden der KI zu ermöglichen, Daten maschinell auswerten zu können, müssen diese neben einer Aufbereitung auch in ein maschinenlesbares Format übertragen werden. Mit einem Candlestickmuster können Kursverläufe, also Höchst-, Tiefst-, Eröffnungs- sowie Schlusskurs für die zu lernende Maschine mathematisch dargestellt werden. Weitere Indikatoren, die sich in einer Kombination als erfolgreich herausstellten, waren der Momentum- sowie RSI-Indikator. Diese ermöglichten es, einzelne Ausreißer, die durch einen plötzlichen An- oder Abstieg des Aktienwertes hervorgerufen wurden, zu glätten. Nach einer erfolgreichen Skalierung sowie Selektion der vorhandenen Merkmale wurde die Klassifikation der Objekte durchgeführt. Ziel dieser war es, nach wiederkehrenden Merkmalsmustern zu suchen, um auf neue Situationen während der Trainingsphasen besser reagieren zu können. Diese Merkmalsmuster wurden anschließend fünf verschiedenen Subsets zugeordnet. Insgesamt wurden während des kompletten Feldversuchs 331 Merkmale erzeugt und in die Analyse mit einbezogen.

Abschließend lässt sich feststellen, dass sich der wissenschaftliche Diskurs um die Einsatzmöglichkeiten des Machine Learnings kontinuierlich erweitert. Dies ist zum einen bedingt durch die fortschreitende Entwicklung in Technik und Wissenschaft, welche verschiedene Abläufe zunehmend komplexer und abstrakter werden lassen. Weltweit renommierte Unternehmen investieren enorme Kapazitäten in den Bereich des Machine Learning, um Prozesse mit steigender Komplexität durch Maschinen automatisiert abbilden zu können.

Durch diese Kombination aus, steigenden Ansprüchen sowie Kapazitäten, ergibt sich das folgende Szenario im Hinblick auf zukünftige Analysen: Ermöglicht das Machine Learning zukünftig eine vollständige Transparenz des Finanzmarktes?

5 Fußnoten

  1. 1,0 1,1 Russel/Norvig (2012), S. 22
  2. Lackes/Siepermann (o.J.)
  3. Schaber beschreibt dieses Fallbeispiel in ähnlicher Form in seinem Beitrag zum Science Slam Loeben (2014), es wurde jedoch durch den Autor dem Kontext dieser Arbeit angepasst.
  4. Vgl. Thom (2012), S. 12
  5. S. 283
  6. Vgl. Keller (2000), S. 283; vgl. Thom (2012), S. 30
  7. Vgl. Keller (2000), S. 283
  8. Vgl. Russel/Norvig (2012), S. 811
  9. ebd., S. 811
  10. Vgl. Rojas (1993), S. 3; Vgl. Thom (2012), S. 48
  11. Vgl. Thom (2012), S. 48f; Kinnebrock (1994), S. 14
  12. Vgl. McCulloch/Pitts (1943)
  13. Russel/Norvig (2012), S. 846
  14. Vgl. Thom (2012), S. 59
  15. ebd., S. 59; Kotsiantis & Pintelas (2005), S. 53 bis 59
  16. Linke (2003)
  17. Vgl. Thom (2012), S. 60
  18. Vgl. Russel/Norvig (2012), S. 857
  19. Thom (2012), S. 62
  20. Vgl. ebd., S. 61 f.
  21. ebd., S. 11
  22. ebd., S. 11
  23. Vgl. ebd., S. 11
  24. Vgl. Sperber (2014), S. 1 f.
  25. Vgl. ebd., S. 1 f.
  26. ebd., S. 2
  27. ebd., S. 69
  28. ebd., S. 70
  29. Vgl. ebd., S. 70; Pollert, Kirchner, Polzin (2013), S. 160
  30. Vgl. Sperber (2014), S. 72; Vgl. Heldt (o. J.)
  31. Sperber (2014), S. 72
  32. Vgl. ebd., S. 72
  33. Vgl. ebd., S. 73
  34. ebd., S. 73
  35. ebd., S. 11
  36. Vgl. ebd., S. 11; Pollert, Kirchner, Polzin (2013), S. 440
  37. Vgl. Sperber (2014), S. 11
  38. Vgl. Budzinkski,Jasper,Michler,W. Breuer,C.Breuer (o.J.)
  39. Vgl. Sperber (2014), S. 18 f.
  40. ebd., S. 18
  41. Vgl. ebd., S. 5
  42. Vgl. W.Breuer/C.Breuer (o.J.)
  43. Sperber (2014), S. 5
  44. Vgl. Scharkow (2011), S. 111
  45. ebd., S. 113
  46. Vgl. Thom (2012), S. 14
  47. ebd., S. 23
  48. ebd., S. 26
  49. ebd., S. 27
  50. ebd., S. 73
  51. ebd., S. 73
  52. Vgl. Ehrhardt (2006), S. 3 bis 6
  53. ebd., S. 7
  54. Vgl. ebd., S. 8
  55. ebd., S. 9
  56. Vgl. ebd., S. 8 u. 10
  57. Vgl. Koch (2010), S. 3
  58. Murphy (2003), S. 65
  59. Vgl. Ehrhardt (2006), S. 22
  60. Vgl. Murphy (2003), S. 63
  61. Vgl. Schwager (2013), S. 46
  62. ebd., S. 67
  63. Vgl. ebd., S. 68
  64. Vgl. ebd., S. 67
  65. Vgl. ebd., S. 68
  66. ebd., S. 69
  67. Vgl. Brock (2013), S. 187
  68. Vgl. Murphy (2003), S. 76
  69. ebd., S. 71
  70. ebd., S. 75
  71. Vgl. Ehrhardt (2006), S. 24
  72. Vgl. Scherer (2003), S. 3
  73. Vgl. Heuer (1997), S. 7
  74. Vgl. Crone (2010), S. 168; Vgl. Rey/Wender (2010), S. 15
  75. Vgl. Rey/Wender (2010), S. 15
  76. Vgl. ebd., S. 17
  77. ebd., S. 15 f.
  78. Vgl. ebd., S. 25
  79. Vgl. Scherer (2003), S. 4
  80. Vgl. ebd., S. 25
  81. Vgl. Nakhaeizadeh (1998), S. 6 u. 10; Vgl. Nakhaeizadeh (1998), S. 20 u. 21
  82. Vgl. Swingler (1996), S. 27 f.
  83. Vgl. Gansser/Krol (2015), S. 338
  84. Thom (2012), S. 83
  85. Vgl. Thom (2012), S. 81; Vgl. Park/Irwin (2004), S. 1 bis 18; Schulmeister (2008), S. 1 bis 25
  86. Vgl. Thom (2012), S. 81
  87. Vgl. ebd., S. 82
  88. Vgl. ebd., S. 82 f.
  89. Vgl. Thomsett (2013), S. 2 ff.
  90. Vgl. Gebert/Hüsgen (1995), S. 10 f.; Vgl. Nison (2013), S. 42
  91. Vgl. Thom (2012), S. 85; Vgl. Gebert/Hüsgen (1995), S. 9 ff.; Vgl. Nison (2013), S. 42
  92. Vgl. Murphy (2003), S. 227 f.
  93. Murphy (2003), S. 234
  94. ebd., S. 242
  95. Vgl. ebd., S. 242
  96. Vgl. Thom (2012), S. 104; Vgl. Staar (2011), S. 168
  97. Vgl. Thom (2012), S. 104
  98. Vgl. ebd., S. 115 f.
  99. Vgl. Nakhaeizadeh (1998), S. 11
  100. Vgl. ebd., S. 103 ff.
  101. ebd., S. 126
  102. Vgl. Thom (2012), S. 125 f.; Vgl. Russel/Norvig (2012), S. 549 u. 812
  103. Vgl. Thom (2012), S. 126 f.
  104. ebd., S. 127
  105. Vgl. ebd., S. 126 f.
  106. ebd., S. 128 f.
  107. ebd., S. 129
  108. Vgl. Nakhaeizadeh (1998), S. 8
  109. Thom (2012) S. 131
  110. Vgl. ebd., S. 130 bis 133
  111. Vgl. ebd., S. 135 f.
  112. Vgl. ebd., S. 130 bis 133
  113. Vgl. Wiedemann (1999), S. 76 f.; Thom (2012), S. 134 ff.
  114. Vgl. Thom (2012), S. 143
  115. ebd., S. 143; Vgl. Tabelle 3.2
  116. Vgl. ebd., S. 143
  117. ebd., S. 143
  118. Vgl. ebd., S. 144
  119. ebd., S. 145
  120. ebd., S. 144 Tabelle 5.1
  121. Vgl. ebd., S. 197 f.
  122. ebd., S. 198
  123. Vgl. ebd., S. 200 f.
  124. ebd., S. 200 f.
  125. ebd., S. 203

6 Quellen- und Literaturverzeichnis

Verweis Literatur / Quelle
Thom (2012) Thom, Rene: Vorhersage kurzfristiger Aktienkursrenditen: Entwicklung eines maschinellen Lernverfahrens, 1. Auflage, JOSEF EUl VERLAG GmbH, Lohmar – Köln 2012
Murphy (2003) Murphy, John J.: Technische Analyse der Finanzmärkte, 2. Auflage, München 2003
Scherer (2003) Scherer, Andreas: Neuronale Netze Grundlagen und Anwendungen, Braunschweig/Wiesbaden 2003
Rey/Wender (2010) Rey, Günter Daniel / Wender, Karl F: Neuronale Netze: Eine Einführung in die Grundlagen, Anwendungen und Datenauswertung, 2. Auflage, 2010
Nison (2013) Nison, Steve: Technische Analyse mit Candlesticks, 6. Auflage, 2013
Thomsett (2013) Thomsett, Michael C.: Visual Guide: Chartanalyse mit Candlesticks, 2014
Wiedemann (1999) Wiedemann, Christine: Neuronale Netze und Fuzzy-Logik in der Neuprodukt-Erfolgsfaktorenforschung, 1999
Ehrhardt (2006) Ehrhardt, Marcel: Fundamentalanalyse und technische Analyse der Aktienentwicklung, 09.05.2006, online im Internet: http://www.stendal.hs-magdeburg.de/project/konjunktur/Fiwi/vorlesung/6.Semester/vorlesungsmaterial/T8%20Fundamentalanalyse.pdf (05.06.2016 20:06)
Schwager (2013) Schwager, Jack D.: Schwager über Technische Analyse, FinanzBuch Verlag, 2013
Brock (2013) Brock, Jörg: Internationale Anlagestrategie: Rationale Entscheidungen durch technische Analyse, Springer-Verlag, 2013
Koch (2010) Koch, Matthias: Die Fundamentalanalyse zur Bewertung von Aktien, GRIN Verlag, 1. Auflage 2010
Nakhaeizadeh (1998) Gholamreza Nakhaeizadeh: Data Mining Theoretische Aspekte und Anwendungen, Physica-Verlag, 1995
Gebert/Hüsgen (1995) Gebert, Thomas / Hüsgen, Paul: Candlestick-Charttechnik, Börsenbuch-Verlag, 1995
Heuer (1997) Heuer, Jürgen: Neuronale Netze in der Industrie, Gabler Verlag, Deutscher Universitäts-Verlag, Wiesbaden 1997
Crone (2010) Crone, Sven F.: Neuronale Netze zur Prognose und Disposition im Handel, 1. Auflage, Gabler Verlag, Springer Fachmedien Wiesbaden GmbH 2010
Staar (2011) Staar, K.C.: The Fundemental Guide to Getting Started and Succeeding With Your Investments, 2011
Scharkow (2011) Scharkow, Michael: Automatische Inhaltsanalyse und maschinelles Lernen, Dissertation, Universität der Künste Berlin 2011
Sperber (2014) Sperber, Herbert: Finanzmärkte: Eine praxisorientierte Einführung, Schäffer-Poeschel Verlag, Stuttgart 2014
Russel/Norvig (2012) Russel, Stuart / Norvig, Peter: Künstliche Intelligenz: Ein moderner Ansatz, Pearson Deutschland, München 2012
Keller (2000) Keller, Hubert B.: Maschinelle Intelligenz: Grundlagen, Lernverfahren, Bausteine intelligenter Systeme, Friedr. Vieweg & Sohn Verlagsgesellschaft mbH, Braunschweig/Wiesbaden 2000
Rojas (1993) Rojas, Raul: Theorie der neuronalen Netze: Eine systematische Einführung, Springer-Verlag, Berlin Heidelberg 1993
Swingler (1996) Swingler, Kevin: Applying Neural Networks: A Practical Guide, Morgan Kaufmann Publishers In, 1996
Gansser/Krol (2015) Gansser, Oliver / Krol, Bianca: Markt- und Absatzprognosen Modelle – Methoden – Anwendung, Springer Gabler Verlag, Wiesbaden 2015, FOM Edition
Schulmeister (2008) Schulmeister, Stephan: Profitability of Technical Stock Trading: Has it Moved from Daily to Intraday Data? , Austrian Institute of Economic Research, Vienna 2008
Park/Irwin (2004) Cheol-Ho Park/Scott H. Irwin: The Profitability of Technical Trading Rules in US Futures Markets: A Data Snooping Free Test, Austrian Institute of Economic Research, St. Louis Missouri 2004
Kinnebrock (1994) Kinnebrock, Werner: Neuronale Netze: Grundlagen, Anwendungen, Beispiele, 2. Auflage, R. Oldenbourg Verlag, München Wien 1994
Lackes/Siepermann (o.J.) Lackes, Richard / Spiermann, Markus; Springer Gabler Verlag (Herausgeber): Gabler Wirtschaftslexikon, Stichwort: maschinelles Lernen, online im Internet: http://wirtschaftslexikon.gabler.de/Archiv/77372/maschinelles-lernen-v8.html (02.06.2016 21:12)
Heldt (o. J.) Heldt, Cordula; Springer Gabler Verlag (Herausgeber): Gabler Wirtschaftslexikon, Stichwort: Investment Banking, online im Internet: http://wirtschaftslexikon.gabler.de/Archiv/5016/investment-banking-v9.html (02.06.2016 21:21)
Budzinkski,Jasper,Michler,W. Breuer,C.Breuer (o.J.) Budzinski, Oliver;Jasper, Jörg; Michler, Albrecht; Breuer, Wolfang; Breuer, Claudia; Springer Gabler Verlag (Herausgeber): Gabler Wirtschaftslexikon, Stichwort: Kapitalmarkt, online im Internet: http://wirtschaftslexikon.gabler.de/Archiv/3612/kapitalmarkt-v7.html (02.06.2016 21:23)
W.Breuer/C.Breuer (o.J.) Breuer, Wolfgang / Breuer, Claudia; Springer Gabler Verlag (Herausgeber): Gabler Wirtschaftslexikon, Stichwort: Fristentransformation, online im Internet: http://wirtschaftslexikon.gabler.de/Archiv/6260/fristentransformation-v7.html (02.06.2016 21:26)
Pollert, Kirchner, Polzin (2013) Pollert, Achim; Kirchner, Bernd; Polzin, Javier Morato: Duden Wirtschaft von A bis Z: Grundlagenwissen für Schule und Studium, Beruf und Alltag, 5. Auflage, Bibliographisches Institut, Berlin 2013
McCulloch/Pitts (1943) McCulloch, Warren S. / Pitts, Walter: A logical calculus of the ideas immanent in nervous activity, in: Bulletin of Mathematical Biophysics, 1943, Ausgabe 5, S. 115-137
Linke (2003) Linke, Andreas: Spam oder nicht Spam?: E-Mail sortieren mit Bayes-Filtern, in: c’t, 2003, Heft 17, S. 150-153
Schaber (2014) Schaber, Felix: Maschinelles Lernen (Science Slam Leoben 2014), 09.01.2015, online im Internet: https://www.youtube.com/watch?v=1uXDI-Nc8QM (05.06.2016 20:16)

7 Abkürzungsverzeichnis

Abkürzung Bedeutung
EZB Europäische Zentralbank
KI Künstliche Intelligenz
RSI Relative Stärke Index
KA Kapitalanbieter
KN Kapitalnachfrager

8 Tabellenverzeichnis

Tabelle Nr. Quelle
3.1 Gewichtungsbeispiel angeordneter Neuronen
3.2 Aufteilung Featuresubsets
3.3 Beschreibung der Klassifikationsvariablen

9 Abbildungsverzeichnis

Abbildung Nr. Abbildung
2.1 Die drei Säulen des Lernens
2.2 Modell eines Neurons
2.3 Anwendungsgebiete des maschinellen Lernens
2.4 Kapitalvermittlung auf Finanzmärkten
2.5 Wichtige Akteure des Finanzmarktes
2.6 Grundprinzip von Investmentfonds
2.7 Emission und Handel von Wertpapieren
2.8 Anzahl der Durchgänge n eines Zufallsexperiments
2.9 Gegenwart- & Barwertrechnung
2.10 PER Berechnung
2.11 Verhältnis Global, Branche und Unternehmen
2.12 Die drei definierten Trends
2.13 Primär- Sekundär- und Tertiärtrend
2.14 Darstellung von Unterstützung und Widerstand
2.15 Darstellung eines Trendbruchs
2.16 Darstellung eines Rollentausches zwischen Widerstand und Unterstützung
3.1 Aufbau eines neuronalen Netzes mit Gewichtungsbeispiel
3.2 Aufbau eines neuronalen Netzes mit Bias-Neuronen
3.3 2-zu-1-Aktiensplit
3.4 Candlestickchart
3.5 Vergleich zwischen Linienchart und Candlestickanalyse
3.6 Beispiel eines Momentums
3.7 RSI Formel
3.8 Abbildung der Vertikalen Abgrenzung / der „Grauzone“
3.9 Abbildung der Anhebung der Klassifizierungsgrenze zur Klasse Eins
3.10 Vergleich der Klassifikatoren

 

Quelle: http://winfwiki.wi-fom.de/index.php/Anwendung_des_Machine_Learning_bei_der_Analyse_von_Kapitalm%C3%A4rkten

Der Inhalt ist verfügbar unter der GNU Free Documentation License 1.2.

Lizenz Aufmacherbild:

Digital Finance – Finanzwelt im Wandel

Reportage: Die Bankenlandschaft ist im Umbruch. Um im Wettbewerb bestehen zu können und den Bedürfnissen des digitalen Kunden gerecht zu werden, gehen Banken neue Partnerschaften ein.

Durch die langanhaltende Niedrigzinsphase steigen die Bankgebühren. Wer diese gerade vor der aufstrebenden Gruppe der Millenials rechtfertigen will, muss neue innovative Services bieten. FinTechs wandeln sich so von einstigen Gegenspielern zu geschätzten Partnern. Ohne aufwendige Entwicklung werden schnell neue Leistungen, wie Roboadvisory, Social-Trading und Crowdfinancing, integriert. Die eigene Forschung, etwa im Bereich der Blockchain-Technologie sollte jedoch nicht vernachlässigt werden!

Im Rahmen einer eigenständigen Reportage gibt die TREND REPORT-Redaktion in Fallbeispielen, Interviews und Expertenbeiträgen dem Thema „Digital Finance“ Raum und vermittelt einen Überblick über die wichtigsten digitalen Trends rund um das Thema Finanzen.

TREND REPORT ist die neue Wirtschaftszeitung, die aktuelle und zukünftige Trends zum Thema macht. Wir suchen nach neuen Anzeichen, die Wendepunkte im Zeitgeist markieren und wir verstehen uns als Partner der Wirtschaft. TREND REPORT liegt als Fremdbeilage der Gesamtauflage des Handelsblattes bei.

Themen und Inhalte:

FinTech/InsurTech/ PropTech

Innovative  Lösungen in traditionellen Märkten

Crowdfinancing

Start-Up-, Projekt, oder Privatkreditfinanzierung durch die Investorencrowd

Social-Trading

Profitieren und Lernen vom Wissen der anderen

Roboadvisors

Algorhytmen helfen bei der Kapitalanlage.

Blockchain

Die Technologie offenbart ihr wahres Potential.

Mobile Banking

24/7/365: Banking jederzeit und überall

Digitales Onboarding

Kontoeröffnung in fünf Minuten

PSD2

Das Monopol der Banken auf  Kontoinformation und Zahlungsdienstleistung fällt 2018

Venture Capital

Frisches Kapital für kapitale Ideen

 

Hier können Sie das vollständige Themenexposée herunterladen

Hier geht es zu den Mediadaten

Mehr Daten, weniger Schutz

Entwurf zur Datenschutz-Reform:
Mehr Daten, weniger Schutz

 

Seit Mai letzten Jahres sind die europäische Datenschutzgrundverordnung (DSGVO) sowie die Datenschutz-Richtlinie (DSRL) in Kraft. Die Regelungen sollen das bislang geltende Datenschutzrecht der EU, das noch aus den 90er Jahren stammt, ablösen und fit für das digitale Zeitalter machen. Während eine Richtlinie noch der Umsetzung in nationales Recht bedarf, hat eine Verordnung in den Mitgliedstaaten grundsätzlich unmittelbare Geltung. Die Datenschutzgrundverordnung enthält allerdings zahlreiche Öffnungsklauseln, die es den einzelnen Mitgliedstaaten erlauben, von den EU-Vorgaben abzuweichen und nationale Sonderwege einzuschlagen.

Von dieser Möglichkeit will Deutschland nun offenbar reichlich Gebrauch machen. Das Bundesinnenministerium hat Ende November 16 einen Referentenentwurf für die Anpassung des deutschen Datenschutzrechts an die neuen EU-Regeln vorgelegt und dazu verschiedene Interessenvertreter und Verbände angehört. Im Zentrum des Vorhabens steht die Neufassung des Bundesdatenschutzgesetzes. Neben Vorschriften zur Umsetzung der Datenschutz-Richtlinie sollen auch eine Reihe von Bestimmungen auf Grundlage der Öffnungsklauseln der Datenschutzgrundverordnung in das Gesetz aufgenommen werden.

Auch der Digitale Gesellschaft e. V.hat sich die ganze 126 Seiten umfassenden Referentenentwurf angesehen und innerhalb der äußerst knapp bemessenen Frist von nur zwei Wochen eine schriftliche Stellungnahme dazu abgegeben. Tatsächlich birgt der Entwurf eine Menge Sprengstoff.

Rote Linien überschritten: Datenschutzprinzipien und Betroffenenrechte werden aufgeweicht

Zentrale Prinzipien des Datenschutzes, insbesondere die Zweckbindung, sollen bis zur Unkenntlichkeit aufgeweicht werden. Der Zweckbindungsgrundsatz besagt, dass Daten grundsätzlich nur zu dem Zweck verwendet werden dürfen, zu dem sie auch erhoben wurden. Nach den Plänen des Bundesinnenministeriums soll das künftig beispielsweise dann nicht mehr gelten, wenn eine nachträgliche Zweckänderung „im berechtigten Interesse“ des Verantwortlichen liegt. Wann ein solches „berechtigtes Interesse“ gegeben ist, definiert der Entwurf hingegen nicht. Betroffene Personen können unter diesen Umständen kaum absehen, was mit ihren personenbezogenen Daten passieren wird, nachdem sie in eine Datenverarbeitung eingewilligt haben. Die Einwilligung, bislang eines der wichtigsten Instrumente zur Sicherung der Datensouveränität, wird auf diese Weise weitgehend entwertet.

Ähnlich besorgniserregend sieht es auch bei den Informationspflichten der Datenverarbeiter und den zentralen Betroffenenrechten wie den Rechten auf Auskunft, Widerspruch und Löschung aus. In all diesen Punkten fällt der Entwurf hinter das Niveau des geltenden deutschen Datenschutzrechts zurück. Die geplanten Regelungen überdehnen außerdem an vielen Stellen die europarechtlichen Öffnungsklauseln und stehen deshalb in offenem Widerspruch zu den EU-Vorgaben. Der Entwurf überschreitet damit klar die roten Linien, die während der „Trilog“ genannten Dreiecksverhandlungen zwischen Europäischem Parlament, Ministerrat und EU-Kommission vereinbart wurden. Außerdem torpediert er das Kernziel der Datenschutzgrundverordnung, den Datenschutz in Europa zu harmonisieren und ein EU-weit einheitliches Datenschutzniveau zu schaffen.

00004-langer-atem-taucherin2-quelle

 

Neues Credo der Bundesregierung: Datenreichtum statt Datensparsamkeit

Schon während der Verhandlungen um die Datenschutzgrundverordnung hatte Deutschland sich im EU-Ministerrat für Schwächungen der Betroffenenrechte eingesetzt. Durchsetzbar waren im Ergebnis jedoch nur die bereits erwähnten Öffnungsklauseln. Der jetzige Vorstoß des Bundesinnenministeriums erweckt den Eindruck, dass genau die Verschlechterungen des Datenschutzes, welche die Bundesregierung auf EU-Ebene bislang nicht durchdrücken konnte, nun auf dem Umweg über das nationale Recht verankert werden sollen.

Dieser Eindruck wird unter anderem auch dadurch bestärkt, dass etwa Bundeswirtschaftsminister Gabriel, Bundesverkehrsminister Dobrindt und Bundeskanzlerin Merkel in den vergangenen Wochen und Monaten immer wieder eine Abkehr vom Grundsatz der Datensparsamkeit propagiert haben. An dessen Stelle soll nach ihrer Vorstellung das Prinzip des „Datenreichtums“ treten. Für sie sind personenbezogene Daten weniger ein schützenswertes Gut als vielmehr Roh- und Treibstoff für die Digitalwirtschaft. Neue datenbasierte Geschäftsmodelle sollen entstehen, weshalb personenbezogene Daten in möglichst großem Umfang anfallen und Unternehmen möglichst freie Hand beim Umgang mit diesen Daten erhalten sollen.

Fazit: In der gegenwärtigen Fassung europarechtswidrig

Bereits seit Januar 2017 soll das Bundeskabinett mit dem Entwurf befasst sein. Noch vor dem Ende der Legislaturperiode soll das Gesetz dann auch den Bundestag passiert haben. Inwieweit das Bundesinnenministerium auf die Kritik an dem Referentenentwurf eingehen wird, wird also Anfang kommenden Jahres feststehen. Eine echte Kehrtwende ist angesichts des datenschutzunfreundlichen Kurses der Bundesregierung eher nicht zu erwarten. In der gegenwärtigen Fassung wird das Gesetz jedoch einer europarechtlichen Überprüfung kaum standhalten. Das sollten sich auch die Parlamentarier vor Augen halten, die im kommenden Jahr über das Gesetz abstimmen werden. Eine Aufhebung des Gesetzes durch den Europäischen Gerichtshof stünde gerade Deutschland als Mutterland des Datenschutzes äußerst schlecht zu Gesicht.

 

Podcast: Über den Referentenentwurf wurde auch auf FluxFM im Rahmen
der Reihe „In digitaler Gesellschaft“ gesprochen:

Mogelpackung Datenschutz

 

 

Quelle: Digitale Gesellschaft e.V.  / Autor: Text und Bild Lizenz: CC-BY-SA-3.0

 

Die vernetzte Gesellschaft

Der Trend hin zur Digitalisierung in Wirtschaft und Gesellschaft ist ungebrochen.
TREND REPORT zeigt das Portrait einer Gesellschaft im digitalen Wandel.

Im Kontext der nächsten TREND REPORT-Ausgabe hat die Redaktion den interdisziplinären Schwerpunkt „Die vernetzte Gesellschaft“ mit dem Ziel gesetzt, die Kommunikationstechnologien und ihren Nutzen für Staat, Wirtschaft und Gesellschaft aus verschiedenen Perspektiven zu thematisieren. In Fallbeispielen und Interviews präsentieren wir neue Geschäftsmodelle und Technologien, die im Trend liegen und sich im aktuellen Zeitgeist widerspiegeln. Wie wirken sich „Car-Sharing-Modelle“ und das „Internet der Dinge“ aus? Wie erreicht man eine „digitalisierte Zielgruppe“ und welche Veränderungen bringen „disruptive Technologien“?
Diese und weitere spannende Fragen diskutiert die Redaktion mit Experten aus Wissenschaft und Wirtschaft. Aus den Antworten und Ergebnissen zeichnen wir das Portrait einer Gesellschaft im digitalen Wandel.

Themen und Inhalte

Share Economy
Teilen statt besitzen

Wirtschaft und digitale Sicherheit
Was passiert, wenn nichts mehr geht?
IT-Security und Netzneutralität im Fokus

New Work & Arbeiten 4.0
Der Wandel zur mobilen und globalen Arbeit prägt Unternehmen und Mitarbeiter.

Vernetzte Mobilitätskonzepte
Von E-Mobility bis Carsharing

Multi-Channel-Commerce
Die Customer Journey geht weiter.

Digital Lifestyle
Smart Home, Wearables & Co.

Künstliche Intelligenz
Neue Herausforderungen für Wirtschaft und Gesellschaft

Digital Finance
Die Robo-Advisors kommen…

IoT & Industrie 4.0
High-Tech-Strategien für den Standort Deutschland

Hier können Sie das vollständige Themenexposé herunterladen

Hier geht es zu unseren Mediadaten

Mehr Smartness am Arbeitsplatz durch IoT

Gastbeitrag von Oliver Bendig, Chief Executive Officer (CEO) der Matrix42 AG

McKinsey prognostiziert, dass das Internet der Dinge (Internet of Things, IoT) bis 2025 einen weltweiten, wirtschaftlichen Mehrwert von bis zu 11 Billionen Dollar oder rund 11 Prozent der globalen Wirtschaftsleistung schaffen kann. Die überwiegende Mehrheit (72 Prozent) der Mitglieder des deutschen VDE (Verband der Elektrotechnik, Elektronik und Informationstechnik) ist, den Ergebnissen des VDE Trendreports 2016  entsprechend, überzeugt, dass das Internet der Dinge in zehn Jahren konkret da ist. Auch, wenn momentan häufig eher die Auswirkungen dieses Entwicklungsschubs auf die Industrie- und Produktionsunternehmen im Fokus der Diskussion stehen – eines ist klar: Das Internet der Dinge wird auch den Büro-Arbeitsplatz gravierend verändern.

Gefahr oder Zuwachs an Arbeitsqualität?

Die Art, wie wir arbeiten, verändert sich derzeit massiv – getrieben durch die internationale Zusammenarbeit, die Mobilität der Mitarbeiter und deren Anspruch auf mehr Flexibilität sowie durch die damit einhergehende Veränderung der organisatorischen Strukturen und der Unternehmensprozesse. Die Angst, das Internet of Things würde den Arbeitsplatz so verändern, dass Mitarbeiter gezwungenermaßen ihre gewohnte Arbeitsweise anpassen müssten, ist aus meiner Sicht unbegründet. Diese Anpassung passiert längst – die Mitarbeiter selbst sind einer der zentralen Motoren dafür, weil sie die technologischen Möglichkeiten nicht nur privat, sondern auch beruflich nutzen möchten. Die Möglichkeiten, die das Internet of Things eröffnet, führen eher dazu, dass der Arbeitsplatz sich künftig besser an den Bedürfnissen der Mitarbeiter ausrichtet. IoT wird es Mitarbeitern ermöglichen, ihren Workspace noch individueller und flexibler zu gestalten und durch automatisierte Prozesse Zeit zu sparen und so auch Produktivität zu gewinnen.

Heizung, Beleuchtung, Konferenzsysteme, Bürostuhl, etc.

Konkrete Beispiele für diese Erleichterungen sind etwa die Möglichkeit, sich in Echtzeit einen Überblick über aktuell genutzte Meetingräume und Arbeitsplätze verschaffen zu können, automatisch eingestellte Heizungen und angehende Beleuchtung, sobald das Büro betreten wird. Auch ein Bürostuhl, der sich nach der Erfassung der Körpermaße automatisch ergonomisch passend ausrichtet, ist keine unvorstellbare Zukunftsmusik. Genauso wenig wie eine automatisierte Rolladen-Steuerung, Telefonanlagen, die alle Konferenzteilnehmer selbst anwählen und in den Call holen, sobald der Termin ansteht oder Beamer, die sich zu Präsentationsbeginn selbst aktivieren und einrichten. Und natürlich geht es auch darum, dass die mit Sensoren und Aktoren ausgestatteten und über das Internet vernetzten Geräte im Sinne einer Predictive Maintenance selbst bekannt geben, wenn sie gewartet werden müssen, Ersatzteile benötigen oder Material, z. B. Druckertoner, nachgefüllt werden soll.

Das Smart Office ist überall

Weiter gefasst, nicht nur die klassischen Büroräumlichkeiten selbst betrachtet, sind künftig prinzipiell sämtliche Geräte mit Display als Arbeitsgeräte nutzbar, vom Fernseher über das Display im Auto bis hin zum Bildschirm am Kühlschrank und an der vernetzten Kleidung (Stichwort Smart Clothing, Wearables). Das Internet of Things wird den Arbeitsplatz also noch deutlich stärker erweitern als es mit heutigen Mobilgeräten sowieso schon möglich ist.

Erhöhung der Effizienz und Produktivität

Für die Mitarbeiter geht mit den Möglichkeiten des Internet of Things mehr Flexibilität und Produktivität einher. Unternehmen, die die Daten der vernetzten Geräte auswerten, können durch gezielte Veränderungen Effizienzsteigerungen, z. B. bei der Auslastung von Meetingräumen, herbeiführen und so die Kosten senken. Sie können die Nutzung der Geräte erfassen und damit den Ressourceneinsatz besser steuern.

Herausforderungen: Management und Sicherheit

Damit einher geht die Frage nach der Verwaltung all der vernetzten Geräte und der Sicherheit. Jedes dieser Geräte läuft mit einem Betriebssystem, muss gemäß den Unternehmensanforderungen organisiert und verwaltet sowie mit Updates versorgt werden, muss den rechtlichen Rahmenbedingungen entsprechen und vor allem auch (Daten-) Sicherheit gewährleisten. Für den Endbenutzer stellt sich die Frage der Verwaltung genauso wie für die IT. Wie verbinden sich all die Geräte mit dem User? Die Antwort ist wiederum ein mobiles Gerät, z. B. ein Tablet, das als „Fernbedienung“ dient. Die IT wiederum benötigt ein Managementtool bzw. ein Workflow-Modellierungstool, um diesen erweiterten Workspace für die Mitarbeiter bereitstellen zu können. Und nicht zuletzt ist das Thema der Sicherheit die wichtigste zu beantwortende Frage. Neun von zehn deutschen Unternehmen sehen laut VDE Trendreport die IT-Sicherheit als erfolgskritisch für IoT und Industrie 4.0 und damit auch als größte Barriere für die Ausbreitung des Internets der Dinge.

Standardisierung nötig

Voraussetzung, um Verwaltung und Sicherheit zufriedenstellend lösen zu können, ist ein Standard für das Internet of Things. Derzeit nimmt zwar die Anzahl der Internet of Things Lösungen in den verschiedensten Bereichen – Office, Industrie, Home, Health Care, etc. – ständig zu, ein Standard für die Kommunikation und den übergreifenden Datenaustausch fehlt aber noch. Der Internet of Things Council, ein Gremium aus Forschern, Beratern und Schulungsanbietern, setzt für die Entwicklung eines innovativen, technischen Standards auf einen kollaborativen Weg, wie er etwa im Open Source Bereich schon erfolgreich ist.

Es gibt also noch viel Diskussions-, Entscheidungs- und Handlungsbedarf – auch bei Matrix42 -, sollen die Vorteile des Internet of Things ausgeschöpft werden. Wir sehen uns auch diesbezüglich unserem Motto „Smarter Workspace – Better Life“ verpflichtet und werden daher an entsprechenden Lösungen arbeiten.

Weitere Informationen unter:
www.matrix42.de

Über den Autor:

Oliver Bendig trägt als Chief Executive Officer (CEO) die Gesamtverantwortung für die Matrix42 AG. In seine Zuständigkeit fallen die Bereiche Product Management, Entwicklung, Marketing, Sales-, Pre-Sales-, Channel-Aktivitäten und Customer Success. Er besitzt mehr als 15 Jahre Erfahrung im Arbeitsplatzmanagement und gilt als Vorausdenker in der Branche.
Oliver Bendig ist bereits seit 2009 im Unternehmen und verantwortete als Vice President Product Management zunächst die Bereiche Produkt-Management, Produkt-Marketing und Pre-Sales. 2014 übernahm Oliver Bendig als CTO die globale Verantwortung für die Entwicklungsteams mit den Schwerpunkten Produktstrategie und Weiterentwicklung des Matrix42 Produktportfolios. Mit seinem Team konnte er dabei zahlreiche Produktinnovationen vorantreiben und neue Kundenlösungen einführen, die maßgeblich zum Erfolg von Matrix42 in den vergangenen Jahren beigetragen haben. Seit 2016 ist er CEO der Matrix42.
Bevor Oliver Bendig zu Matrix42 kam, war er mehrere Jahre für das Produkt-Management bei Enteo Software und FrontRange Solutions verantwortlich. Nach seinem Studium der Wirtschaftsinformatik (BA) und des Bachelor of Arts (B.A.) absolvierte Herr Bendig den Master of Science in Computer Science (M.Sc) an der Fachhochschule Karlsruhe.

Kommunikation und der Mensch im Mittelpunkt – „Office 4.0“

Über die Zukunft des Arbeitsplatzes sprach die TREND-REPORT-Redaktion mit Günter Osterhaus, Leiter Planung und Objektmanagement bei Assmann Büromöbel.

 

Herr Osterhaus, was hat eigentlich der Begriff  „Office 4.0“ mit dem „Internet der Dinge“ (IoT) zu tun?

Den Begriff, oder eher Oberbegriff „Office 4.0“ gibt es ja eigentlich nicht, denn er ist eher eine Ableitung von Arbeit 4.0.

Das Internet der Dinge ist aber das, was unseren Büroalltag revolutionieren wird/soll. Algorithmen regeln Standardaufgaben selbstständig und es kommt auf hohe Datenmengen und Geschwindigkeiten an. Komplexe, überall verfügbare Datenbanken speichern unser Wissen speichern und machen es abrufbar. Auch das Smart Office wird dann möglich sein und alle technischen Geräte miteinander vernetzen. Sogar Möbel wie z.B. Stühle und Tische melden biogenetische Daten und messen unser Wohlbefinden und unsere Aktivität am Arbeitsplatz im Büro.

Ein Dilemma wird die Fähigkeit und Geschwindigkeit für uns Menschen darstellen. Wir sind halt keine Maschinen die sich programmieren lassen und dann brav das tun was der Programmierer vorgegeben hat.

 

Wie sollten heute moderne Büroeinrichtungen gestaltet werden um agil arbeitende Projektteams sinnvoll zu unterstützen?

Agilität in heutigen strukturierten Prozessen ist sicher schwierig bis nicht machbar. Die Begriffe gehen einem mittlerweile leicht von den Lippen, aber was bedeutet das überhaupt, was braucht man zur Umsetzung?

Agilität bedeutet auch ortsunabhängiges Arbeiten, teilweise ohne konkrete Strukturen, extrem technologisch und schnell veränderlich.

Diese Innovation, die viele Unternehmen gerne hätten, erfordert eine große Offenheit und eine i.d.R. neue Unternehmenskultur. Es macht keinen Sinn auf der einen Seite die Zeit zu stoppen und auf der anderen Seite Kreativität zu erwarten.

Agiles Arbeiten setz auf große Tatkraft und Ideenreichtum.

Um agile Teams zu erhalten ist es z.B. notwendig, Arbeitsorte zu gestalten, die eine Art Firma in der Firma darstellen. Hier wird frei von allen Zwängen gearbeitet und zwar nur ziel- und ergebnisorientiert. Die Gruppe entscheidet selbst wie sie dorthin kommt. Ein Begriff wird hier immer wieder verwendet. Das ist z.B. das „Coworking“, in dem sich unterschiedliche, auch externe Mitarbeiter treffen und an Themen arbeiten. Ingenieure arbeiten mit Facharbeitern, Marketingfachleuten und Produktentwicklern gemeinsam an einem Thema. Das kann zunächst konzentriert und allein stattfinden und dann auch je nach Bedarf ganz spontan mit der Gruppe sein.

 

Können dann in diesem Kontext mehr Mitarbeiter auf der selben Fläche untergebracht werden und wird dann der individuelle Arbeitsplatz an Bedeutung verlieren?

Hmmm, genau das ist das was wir sehr oft erleben aber aus meiner Sicht sicher der falsche Ansatz ist. Zunächst kommt es nach wie vor auf die individuelle Arbeitsaufgabe an. Es macht keinen Sinn über Desksharing-Quoten und ein nonterritoriales Büro zu sprechen, wenn man nur mehr Leute auf die gleiche Fläche quetschen möchte!

Alles hat zwei Seiten und da sollte man sich unbedingt beraten lassen oder sich mal eine Referenz anschauen die bereits umgesetzt wurde. Ich kenne einige Unternehmen die das teilweise zurückgebaut haben, weil die Mitarbeiter nicht „mitgespielt“ haben.

Die eingesparte Fläche sollte zugunsten der „verbleibenden“ Mitarbeiter zu Meetingpoints und Relaxzonen umgebaut werden. Das macht mehr Sinn.

Auch sollte in den Büros mehr Wert auf Gestaltung gelegt werden. Das gibt den Menschen ein gutes Gefühl und trägt zum Wohlbefinden bei, was wiederum einen positiven Effekt für die Wertschöpfung darstellt.

 

Gibt es Vorlagen oder Muster für das „Office 4.0“?

Nun ja, die großen Konzerne wie Microsoft oder Evonik etc. machen es ja vor, weil in den großen Verwaltungseinheiten der größte sichtbare Effekt erzielt wird. Daraus partizipieren auch andere Unternehmen und auch der Mittelstand. Wie gesagt, die Effekte sind halt anders aber es bleibt immer noch eine individuelle Analyse und Planungsaufgabe.

Hier kommen auch wieder die Fachleute der Consulter, Büroeinrichter und Architekten ins Spiel, die sich ja von Berufs wegen mit dem Thema befassen.

Oft werden auch über die verschiedenen Plattformen wie z.B. Fraunhofer IAO oder Euroforum-Exkursionen bzw. Infoveranstaltungen zu den Thema angeboten.

 

Inwieweit sollten Mitarbeitende bei der Planung neuer Arbeitswelten mit einbezogen werden?

Meiner Meinung nach ist es wichtig die Mitarbeiter mit einzubeziehen und sei es durch eine umfassende und offene Informationspolitik. Auch helfen interne Umfragen, die aber individuell ausgearbeitet werden müssen. Es heißt „Offenheit schafft Vertrauen“ und das gilt auch hier.

 

Wieviel Technologie und Equipment vertragen heute moderne Büromöbel?

Die Aufgabe die uns heute oft erreicht ist die Integration von Bildschirmen, Arbeitsplatzleuchten oder Beleuchtung allgemein, Ladestationen und Dockingstationen sowie ein gutes Kabelmanagement am Schreibtisch. Ein Container kann heute in seinen Schüben eine Steckdose und Datensteckdosen haben.

Ein neuer Trend sind allerdings Gleichstrom-Anlagen, die mittels Akku betrieben werden und die zukünftig keine Strom-Anschlüsse mehr im Boden oder am Fensterbankkanal brauchen. Die innovative Lösung kommt aus dem Hause Bachmann GmbH & Co. KG. Hier wird alles in einem mobilen Container eingebaut, der dann nach Dienst an der Ladestation geparkt werden kann. Die Akku Ladung hält ca. 14 Stunden und versorgt den Tischmotor, den Bildschirm, die LED Arbeitsplatzleuchte und das Notebook
(Qi-Standard induktiv). Dies wird heute alles mittels Netzteil von Wechsel- auf Gleichstrom transformiert. Außerdem kommt aus den Solaranlagen auf dem Firmendach auch Gleichstrom, also direkt, ohne Umwege zum Verbraucher.

Auch wird es in den nächsten zehn Jahren eher interaktive Tischflächen geben, die zwei drittel der Tischfläche beinhaltet, die vielleicht auch etwas kleiner wird. Einen Bildschirm braucht es dann auch nicht mehr. Alles auf der Tischfläche, incl. Tastatur, a la Tablett. Heute sieht man das ja schon in der einen oder anderen Fernsehserie, meist aus den USA.

 

Können bereits bestehende klassische Einrichtungen noch modifiziert werden? Wenn nein, inwieweit müssen räumliche Grundlagen (Grundrisse) angepasst werden?

Interessante Frage und sehr gern beantwortet. In den ganz alten „Kästen“, so bis in die Fünfziger Jahre gibt es so schöne großzügige Raumzuschnitte, die wir wohl in den Sechziger Jahren verlassen haben. Seit dem musste alles schön nach Raumachse und möglichst einfach und gerade sein. Um eine moderne Bürowelt zu kreieren, braucht es z.B. Raumtiefen von 15m wobei wir häufig auf 11 – 12m Raumtiefe treffen. Ein Quadrat eignet sich meiner Meinung nach sehr gut für die Umsetzung.

Entgegen mancher Meinung braucht Arbeitswelt 4.0 mehr Fläche und Raum um kreativ zu sein. Auch für ganz normale Bürotätigkeiten wie die Buchhaltung.

Ab wann schalten Sie sich in die Planung mit ein?

Das ist unterschiedlich. Am häufigsten werden wir Büromöbelhersteller mit unserer Planungsabteilung erst bei der Flächenplanung einbezogen. Dann gibt es oft viele Kompromisse, denn es sollen ja auch noch alle gesetzlichen Vorschriften etc. eingehalten werden.

Gerne sind wir unterstützend in einem frühen Stadium tätig und beschäftigen uns dann mit Analysen und Flächenmodellen.

Welche Trends machen Sie für das „Büro der Zukunft“ aus?

Auf der einen Seite werden die Büros tatsächlich enger, indem man mehr Mitarbeiter an sogenannte Workbenches zueinander setzt. Wenn man dies tut, ohne eine genaue Aufgabenanalyse oder z.B. anderweitig Flächen zur „Erholung“ schafft, werden wir in den nächsten Jahren viel Potential haben, um diese „Anlagen“ wieder zurück zu bauen oder zu verändern.

Auf der anderen Seite werden die Büros schöner, moderner und werden technisch aufgerüstet. Der Arbeitsplatz wird ein Arbeitsort den man mit Kollegen teilt, vielleicht so gar so, als würde man sich gegenseitig in die gute Stube einladen. Neben sehr agilen Arbeitsgruppen gibt es Konzentrationsbereiche und Bibliotheken wo man sich treffen und austauschen kann.

Wir planen große Anlagen die genau so aussehen wie vor zehn Jahren, weil die Unternehmen diese Veränderungen nicht übernehmen wollen/können und bleiben bei Bewährtem. Das trifft auch insbesondere auf die Bürogebäude der öffentlichen Verwaltungen zu, schön in den gewohnten Achsen zu bauen. ( 120 – 125 cm)
Daraus entstehen dann nur eng strukturierte Räume mit langen Fluren und je nach Stufe gibt es ein bis zwei Achsen mehr.

Wann wird das „Office 4.0“ zur Realität?

Wenn es nach Frau Nahles unserer Arbeitsmininsterin geht, soll das bis 2025 umgesetzt sein. Ich behaupte mal das dies etwas länger dauert z.B. eine „Arbeitergeneration“, damit Generation Y sich richtig entfalten kann. Soweit die Theorie.

Welche Anforderungen werden heute an Co-Working-Spaces gestellt?

Der Begriff ist ja schon Programm. Man darf auch vermuten das es sich hierbei um „Zusammenarbeit“ handelt, was zunächst nicht falsch ist.

Co-Working-Spaces werden heute für die kreative Entwicklung von Aufgaben initiiert. Hier arbeiten Leute aus verschiedenen Sparten an einem Thema oder auch an vielen kleinen Themen. Der informelle Austausch, das kreative Miteinander und dann das nötige Umfeld, soll dazu beitragen, frei von allen Zwängen Neues zu entdecken.

Co-Working-Spaces sollen zwanglos, offen und in eine ansprechende Atmosphäre getaucht sein. Das kann eine alte Lagerhalle, ein Dachboden oder eine Garage sein oder zumindest so aussehen, als ob alles noch im Bau wäre und es jederzeit Veränderungen geben kann. Nur Mama´s Küchentisch und Oma´s gemütlicher Sessel darf nicht fehlen. Unkompliziert essen und trinken und sich mit Freunden treffen ist ein wichtiger Faktor. Und High-End-Technik und ein super schnelles Netz wären perfekt.

Beim „Googlen“ findet man sehr viele unterschiedliche Beispiele dafür, insbesondere in den Groß- und Universitätsstätten.

Gibt es Ihrerseits aktuelle Beispiele anhand aktueller Projekte?

In den nächsten Wochen wird eine „Co-Working-Area“ auf dem Campus der Uni Paderborn eingerichtet. Hier wurde mit einem Innenarchitekten aus Bielefeld ein spezieller Bereich geschaffen, der den Studenten, Start-Up´s und vor allem der Industrie im Umland die Möglichkeit geben soll, an gemeinsamen Projekten zu arbeiten und dies außerhalb von festen Unternehmensstrukturen.

In der Zuarbeit für einige Großkunden, wie z.B. Automobilhersteller oder Chemieunternehmen, arbeiten wir an ähnlichen Aufgaben.

Die eigentliche Planungsarbeit liegt hier primär bei den Architekturbüros und Consultern.

 

Danke, Herr Osterhaus für das Hintergrundgespräch!

 

Assmann Büromöbel

 

 

Lesen Sie mehr von Herrn Günter Osterhaus:
Beitrag: „Der Bedarf an individueller Beratung steigt enorm“

2018 Millennium Technology Prize

Die Nominierung der Kandidaten für den 2018 Millennium Technology Prize hat begonnen!

Technology Academy Finland (TAF) lädt die Wissenschafts- und Innovationsgemeinschaft rund um die Welt dazu ein, Kandidaten für den 2018 Millennium Technology Prize zu nominieren. Die Nominierungsfrist begann am 03. April 2017 und geht bis zum 31. Juli 2017. Der mit einer Million Euro dotierte Preis ist einer der größten Innovationspreise weltweit. Er wird für aufregende technologische Innovationen verliehen, die dabei helfen, große Herausforderungen der Menschheit auf nachhaltige Weise zu lösen. Der Gewinner wird am 22. Mai 2018 verkündet.

Nominierungen für den Preis können von Universitäten, Forschungseinrichtungen, Akademien und Unternehmen auf der ganzen Welt eingereicht werden. Der Preis steht Bürgern aller Nationalitäten und sämtlicher technologischer Bereiche, einschließlich Militärtechnologie, offen. Es können sowohl Einzelpersonen als auch Forschungsgruppen nominiert werden. Damit eine Innovation Chancen auf den Sieg hat, muss sie eine belegte Erfolgsgeschichte praktischer Anwendungen und das Potenzial zur Beschleunigung weiterer Forschung besitzen.

Die bisherigen Gewinner des Millennium Technology Prize repräsentieren ein breites Spektrum an Innovationen von medizinischer Technologie und Biotechnologie bis hin zu nachhaltiger Energie- und Informationstechnologie. Sie sind führende Wissenschaftler und Innovatoren in ihren Bereichen und befinden sich am Höhepunkt ihrer Karriere. Unter den Gewinnern befinden sich zwei Nobelpreisträger: Shuji Nakamura für blaue und weiße LEDs und Shinya Yamanaka für ethische Stammzellenforschung. Die letzte Auszeichnung erhielt 2016 Frances Arnold für ihre Innovation der geleiteten Evolution, einer Technologie zur Erzeugung von Proteinen, die nun umfassend in der Herstellung von Treibstoffen, Papierprodukten, Pharmazeutika, Textilien und landwirtschaftlichen Chemikalien eingesetzt werden.

Die Nominierungen werden durch ein Auswahlkomitee bewertet, das sich aus führenden Forschern und Innovatoren aus unterschiedlichen wissenschaftlichen Disziplinen und geografischen Regionen zusammensetzt. Ein Hauptkriterium bei der Bewertung ist, dass die Innovation der Menschheit erwiesenermaßen zugutekommt und nachhaltiges Wachstum fördert. Nach einer sorgfältigen Bewertung teilt das Komitee dem Vorstand von Technology Academy Finland seine Empfehlung zum Gewinner mit. Der Vorstand wählt anschließend den Gewinner.

 

Nominierungen und weitere Informationen

 

Nominierungskriterien und -dokumente finden Sie unter www.millenniumprize.fi/cfn

Die Nominierungsdokumente werden in englischer Sprache bereitgestellt und müssen bis zum 31. Juli 2017 bei Technology Academy Finland eingereicht werden:  www.millenniumprize.fi/cfn.

 

Detaillierte Anweisungen und Anfragen:

 

Juha Ylä-Jääski, Präsident und Geschäftsleiter, Technology Academy Finland, +358 40 903 0606, juha.yla-jaaski(at)taf.fi

Partner des Millennium Technology Prize

Der Millennium Technology Prize wird von führenden finnischen Unternehmen sowie Regierungs- und akademischen Organisationen unterstützt. Die Aalto-Universität ist ein strategischer Partner der Technology Academy Finland. Die Undernehmenpartner sind FIM, Neste, Nokia und Outotec.

Future Store: Big Data im Fokus

Reportage: Der Handel der Zukunft ist datengetrieben. Nur wer seinen Kunden kennt, wird Erfolg haben. Der Schlüssel dazu liegt in der Zusammenführung der unterschiedlichen Datenrepositories.

 

Wo Tante-Emma-Läden des 19. Jahrhunderts ihre Kunden noch kannten und persönliche Interessen bedienten, herrschen bei heutigen Zeitgenossen oft Anonymität, die es zu über-winden gilt. Big-Data-Technologien werden hier zu smarten Helfern, die Kundendaten sammeln, analysieren und es Händlern so ermöglichen, ihren Kunden wieder individuell und persönlich zu begegnen. Unabhängig, ob der Kunde vor Ort ist oder online einkauft. Das Interesse am Kunden und das Wissen um seine individuelle Multichannel-Customer-Journey lässt sich vorteilhaft für beide Seiten digitalisieren.

In Form von Fallbeispielen, Gastbeiträgen und Interviews zeigen wir auf, wie Daten zu Informationen werden und dadurch reale und digitale Einkaufserlebnisse generiert werden. In der Verknüpfung der on- und offline-Welt mittels Big Data liegen enorme Potenziale, die es für den Handel zu heben gilt!

 

Themen und Inhalte

Customer Centricity
Perfekt orchestrierte Off- und Online-Kanäle als Basis für Customer-Centricity.

Touchpoint Management
B2B- und B2C- Kontaktpunkte identifizieren und optimieren.

Handelslogistik
Leistungsfähige Logistikprozesse für Multichannel-Händler

Payment-Solutions
Innovativ, intelligent, sicher und convenient

Absicherung für den Handel der Zukunft
Kreditwarenversicherung, Factoring & Co.

Smart Services
Mit Big-Data-Technologien die richtige Information zur richtigen Zeit zum richtigen Kunden.

Content Commerce
Den Wissenshunger stillen

Digitalisierung und Technologie
Indoor-Localisation-Services, virtuelle Berater im realen Geschäft und Digitalisierung am Point-of-Sale – Kundenbindung mit Big Data

 

 

 

Das Themenexposé können Sie hier herunterladen.

Die Mediadaten finden Sie hier.

New Work: Arbeiten 4.0

Digitalisierung und Automatisierung verändern die Unternehmenskultur und fordern neue Führungsstile. Die Personalabteilung ist aufgefordert sich den neuen Bedingungen anzupassen.

Der US-amerikanische Professor Dave Ulrich forderte bereits 1997: „Das Personalmanagement muss zum Business-Partner des Top-Managements werden.“ Nur mit Verwaltungsaufgaben können sich Personaler unter dem Druck fortschreitender Automatisierung nicht mehr befassen. Shared-Service-Center dienen als wertbeitragende Einheit im Unternehmen. Employee-Branding, neue Recruiting-Maßnahmen, Lernmethoden und Motivationsprogramme werden dem Fachkräftemangel entgegengestellt. Immer mehr personenbezogene Daten werden zu Analysezwecken erhoben, wodurch auch der Daten- und Mitarbeiterschutz an Bedeutung gewinnt.

In der Reportage „New Work: Arbeiten 4.0“ vermittelt die TREND-REPORT-Redaktion einen aktuellen Überblick über die wichtigsten Trends und Entwicklungen in Form von Fallbeispielen und Interviews.

Themen und Inhalte

Digital Workspace
Virtuelle Arbeitswelten fördern die Agilität eines Unternehmens.

Employee Benefits
Mitarbeiter anerkennen und ans Unternehmen binden

Unternehmenskultur
Aufgaben und Herausforderungen für agiles Projektmanagement und agile Führungsstile

Crowdworking
Die digitalen Tagelöhner werden immer beliebter.

Digital Learning
Mit kreativem E- und Game-based Learning Kompetenzen entwickeln

Social Media Recruiting
Talente online finden und binden

Office 4.0
Dem Wandel kreativen Raum geben

Coworking Spaces

Arbeits- und Kontakträume – kreativer Nährboden, wo Start-ups voneinander profitieren

Hier können Sie das vollständige Themenexposé herunterladen

Hier geht es zu den Mediadaten

 

Business-Event: MACHINA Summit.AI

 MACHINA Summit.AI: Neues Business-Event für künstliche Intelligenz in München

 

München, 29. März 2017 – Künstliche Intelligenz (KI) ist ein entscheidender Aspekt der Digitalen Transformation, der derzeit seinen Kinderschuhen entwächst. Während viele Unternehmen immer noch misstrauisch gegenüber dem disruptiven Potential von KI-Technologien sind, erwarten sich andere davon eine Verbesserung von Entscheidungsprozessen, Kundenservice und Betriebsleistung – einige rechnen sogar mit gesteigerten Umsätzen. Vielen Unternehmen – potentiellen Nutzern wie auch Händlern – fehlt jedoch der Überblick über die Vielzahl an Technologien und Lösungen sowie deren Preise und Vorteile.
Dieses Problem behebt Imago Techmedia, Veranstalter von Europas führenden Enterprise-IT-Events IP EXPO und Cyber Security Europe, mit dem MACHINA Summit.AI, der am 8. und 9. November 2017 in München stattfindet. Die einzigartige Veranstaltung bringt renommierte Sprecher, führende Unternehmen und revolutionäre Technologien zusammen. Abgerundet wird das Programm durch einen Ausstellungsbereich sowie fesselnde Präsentationen über KI-Technologien.

Davon profitieren Besucher

Das rasante Tempo der Digitalen Transformation setzt CIOs, CTOs, Analysten, Entwickler und Geschäftsführer unter Druck. Denn nur durch den Einsatz digitaler Technologien können sie sicherstellen, dass ihr Unternehmen auch in Zukunft effizient arbeitet und wettbewerbsfähig bleibt. Tatsächlich stimmen Experten überein, dass die digitalen Innovationsinitiativen der nächsten Jahre durch KI vorangetrieben werden, und dass KI zunehmend wichtiger für den Geschäftserfolg wird. Der MACHINA Summit.AI, der im MOC Veranstaltungscenter München stattfindet, ermöglicht Besuchern einen Einblick in aktuelle Trends rund um das Thema KI. Im Ausstellungsbereich präsentieren innovative Start-Ups und führende Unternehmen, die die Speerspitze der digitalen Revolution bilden, ihre neuesten KI-Lösungen. Zusätzlich bietet der MACHINA Summit.AI eine große Bandbreite hochwertiger Präsentationen und Vorträge weltweit anerkannter Technologieexperten. Für Besucher bietet die Veranstaltung die einzigartige Möglichkeit, einen detaillierten Überblick darüber zu erhalten, wie neue Technologien die Digitale Transformation vorantreiben und welche Vorteile Unternehmen daraus ziehen können.

Auf dem MACHINA Summit.AI können sich Unternehmen mit hochqualifizierten Besuchern vernetzen – von Geschäftsleitern über Datenanalysten bis hin zu KI-Spezialisten. Als Veranstalter weltweit führender Technologieevents wie der IP EXPO besitzt Imago Techmedia langjährige Erfahrung in der Lead-Gewinnung für Aussteller.

International renommierte Sprecher

Auf dem MACHINA Summit.AI teilen renommierte Sprecher ihr Expertenwissen in den Bereichen KI, Datenanalyse, Internet of Things (IoT) und vielen weiteren Technologiethemen. Es sprechen u.a.:

  • Dr. Damian Borth, Director of Deep Learning, DFKI (Deutsches Forschungszentrum für Künstliche Intelligenz)
  • Dr. Wolfgang Hildesheim, AI Leader, IBM Watson
  • Dr. Angie Ma, Founder, ASI Data Science
  • Silviu Niculita, Head of Technology, Yonder
  • Dr. Steven Peters, Manager Technology Management Digitisation, Group Research A.I., Daimler AG
  • Danilo Poccia, Technical Evangelist, Amazon Web Services
  • Karina Popova, Head of Development, LINK Mobility GmbH
  • Jay Tuck, Consultant Speaker, ARD
  • Prof. Dr. Patrick van der Smagt, Head of AI Research & CTO, Volkswagen Group
Fünf Präsentationsbühnen

Die Sprecher präsentieren ihre Vorträge auf den fünf Präsentationsbühnen des MACHINA Summit.AI. Zu den Themen zählen:

  • MACHINA Summit.AI Keynote: Erfahren Sie von Branchenführern, Analysten und Early Adopters, wie Unternehmen KI einsetzen und vorantreiben.
  • Interaktion mit KI: Lernen Sie, wie die fortschrittlichsten Unternehmen der Welt mit KI interagieren und dadurch Zeit und Kosten sparen.
  • Data Science und Machine Learning: IoT verändert die Art und Weise, wie Unternehmen ihre Daten analysieren müssen. Die einzige in Zukunft praktikable Möglichkeit besteht darin, intelligente Maschinen zu schaffen, die selbstständig lernen.
  • Deep Learning: Deep Learning ermöglicht Computern, unendliche Datenmengen wie Bilder, Videos oder Texte zu verarbeiten und zu verstehen.
  • KI im Unternehmen: KI wird schon bald ein Kernbestandteil der Technologiestrategie jedes Unternehmens sein. MACHINA Summit.AI zeigt, was in Zukunft durch KI alles möglich sein wird.
Registrieren und teilnehmen

Der Besuch des MACHINA Summit.AI ist kostenlos für alle, die sich vor dem 7. November 2017 anmelden. Danach kostet der Eintritt 60 Euro. Auch die Teilnahme an den Vorträgen ist gratis – eine hervorragende Möglichkeit zur kostenlosen Weiterbildung über den Einfluss von KI auf Unternehmen. Unternehmen, die auf dem MACHINA Summit.AI ausstellen möchten, sind eingeladen, Imago Techmedia für weitere Informationen zu kontaktieren.

Über MACHINA Summit.AI

MACHINA Summit.AI ist eine neue Veranstaltung zum Thema Künstliche Intelligenz (KI), Analytik und IoT, das am 8. und 9. November 2017 im MOC Veranstaltungscenter in München stattfindet.  Die Veranstaltung erkundet, wie KI-Technologien wie Machine Learning, Deep Learning und Cognitive Computing zusammen mit Analytik und IoT die Geschäftswelt verändern. Das Event richtet sich speziell an CIOs, CTOs, Entwickler und Geschäftsführer, die die Digitale Transformation ihres Unternehmens vorantreiben wollen. MACHINA Summit.AI wird veranstaltet von Imago Techmedia, dem Veranstalter Europas führender Enterprise-IT-Events IP EXPO, UC EXPO und Cyber Security Europe.

Weitere Informationen finden Sie auf der MACHINA Summit.AI Website.

Kontakt:

HBI Helga Bailey GmbH

Tel.: +49 (0)89 99 38 87 -30

Email: machinasummit.ai@hbi.de

www.hbi.de

Aufmacherbild / Quelle / Lizenz
Talk to the Experts / Mai Le Flickr / Creative Commons