Anwendung des Machine Learning bei der Analyse von Kapitalmärkten
Fallstudienarbeit | |
Hochschule: | Hochschule für Oekonomie & Management |
Standort: | Münster |
Studiengang: | Bachelor Wirtschaftsinformatik |
Veranstaltung: | Fallstudie / Wissenschaftliches Arbeiten |
Betreuer: | Prof._Dr._Uwe_Kern |
Typ: | Fallstudienarbeit |
Themengebiet: | Machine Learning |
Autor(en): | Tobias Waning, Alexander Brun, Hendrik von der Haar |
Studienzeitmodell: | Abendstudium |
Semesterbezeichnung: | SS16 |
Studiensemester: | 2 |
Bearbeitungsstatus: | begutachtet |
Prüfungstermin: | 6.6.2016 |
Abgabetermin: | 5.6.2016 |
|
1 Einleitung
Seit den ersten wissenschaftlichen Abhandlungen über das Forschungsobjekt der künstlichen Intelligenz Ende der 50er Jahre gewinnt die Thematik zunehmend an Relevanz. KI wird mittlerweile in allen neueren Gebieten der Technik eingesetzt und in Hinblick auf effizientere Verwendungsweisen in den jeweiligen Einsatzgebieten kontinuierlich weiterentwickelt und optimiert. KI, als solche, stellt sich als ein komplexes Gebiet dar, welches einerseits »versucht […] Intelligenz zu verstehen«[1] und andererseits einen Beweis für das Verständnis entwickelt, »[…] indem es intelligente, technische Systeme erschafft«[1]. Aufgrund der Komplexität des Forschungsobjekts umfasst die KI gegenwärtig eine Vielzahl von unterschiedlichen Bereichen, deren Inhalte sich auf einem Spektrum zwischen allgemein (z.B. das Lernen und die Wahrnehmung) und hochspezialisiert (z.B. das Beweisen mathematischer Behauptungen) anordnen lassen. Fortschreitende Entwicklungen in Technik und Wissenschaft, welche ursprünglich einfache Tätigkeiten, zunehmend komplexer und abstrakter werden lassen, können heute nicht mehr ohne umfassende Analysen durchgeführt werden. Mit den Analysen hochkomplexer technischer Prozesse geht zudem häufig ein exponentiell steigendes Datenaufkommen einher. Dementsprechend basieren diese Analysen häufig auf einer Vielzahl an Faktoren. KI, insbesondere der Bereich des Machine Learning, bietet in diesem Zusammenhang eine Option auf Optimierung der Analysetätigkeiten.
Laut gängigen Definition stellt Machine Learning ein Lernprinzip dar bei dem Computersysteme durch Anwendung und Erforschung von Verfahren befähigt werden, selbstständig Wissen aufzunehmen und zu erweitern. Das Ziel dieser Verfahrensforschung ist es, ein vorhandenes Problem besser lösen zu können als vorher[2]. Maschinelle Lernverfahren ermöglichen es, im Gegensatz zu manueller Revision durch humanitäre Kapazitäten, komplexes Datenmaterial effizient zu verarbeiten. Ein anschauliches Beispiel im Hinblick auf die Optimierung von Analysetätigkeiten bietet der Finanzmarkt.
Das folgende Fallbeispiel dient in diesem Zusammenhang der näheren Erläuterung: Stellen Sie sich vor Sie sind eine Frau, Ende 40 und möchten nun einen Kreditantrag für Ihr Eigenheim stellen. Ihr Lebensgefährte hat ein unbefristetes Arbeitsverhältnis bei einem großen Maschinenhersteller und Sie arbeiten als Beamtin beim Finanzamt ihres Kreises. Diese Aspekte sollten ohne Probleme dafür sprechen, dass ihr Kreditantrag genehmigt wird und sie mit dem Bauvorhaben ihres Eigenheims ohne Umwege starten können. Nach den ersten Gesprächen mit Ihrem Berater bei der Bank, welcher Zuversichtlich hinsichtlich der Genehmigung des Kreditantrags ist, sollte dem Konzept des Eigenheims kein Hindernis mehr im Weg stehen. Einige Tage später bekommen sie jedoch eine Mitteilung von der Bank in der ihr Kreditantrag abgelehnt wurde. Noch im gleichen Zug nehmen Sie Kontakt zu Ihrem Berater bei der Bank auf, welcher sich diese Entscheidung auch nicht erklären kann[3]. Dieses Fallbeispiel zeigt eine fiktive Situation auf, bei der jedoch nicht Menschen die Entscheidung getroffen haben, den Kreditantrag abzulehnen, sondern Maschinen. Alle Kriterien des Kreditantrags werden hierbei mit Risikofaktoren und Mustern anderer Kreditnehmer verglichen, um einen möglichen Kreditausfall zu prognostizieren. Um solche verschiedenen Muster und Risikofaktoren zu erkennen und vergleichen zu können, gibt es verschiedene Lernansätze und -verfahren.
Die vorliegende Arbeit thematisiert diese Lernansätze und -verfahren im Bezug auf das Machine Learning, als eine Unterkategorie der KI. Im Hinblick auf die ausgehende These soll diskutiert und exemplarisch dargestellt werden, inwiefern sich maschinelle Lernverfahren zur Prognose finanzmarktspezifischer Daten eignen. Die Arbeit gliedert sich dabei in vier Hauptkapitel. Das erste Hauptkapitel dient dabei der Einführung in die Thematik des Machine Learning und skizziert die allgemeinen Prozesse im Hinblick auf die Lernstrategien, Lernmethoden und Anwendungsbereiche. Anschließend erfolgt eine Darstellung der möglichen, durch das Machine Learning zu analysierenden, Bereiche des Finanzmarktes. Ausgehend von diesen Darstellungen ergibt sich die Frage, inwiefern das Machine Learning für die Prognose finanzmarktspezifischer Daten eingesetzt werden kann, welche abschließend diskutiert wird.
Das zweite Hauptkapitel beschreibt den Einsatz des Machine Learning zur Prognose finanzmarktspezifischer Daten. Es soll Aufschluss darüber geben, ob das Machine Learning als solches erfolgreich auf dem Aktienmarkt eingesetzt werden kann. Um diese Aussage treffen zu können, werden die verschiedenen Prozesse des Machine Learning hinsichtlich der Analysefähigkeit im Bezug auf Finanzdaten überprüft. Der Prozess des Machine Learning unterteilt sich dabei in fünf unterschiedliche Verarbeitungsstufen: Datenerhebung und Vorverarbeitung, Erstellung lernfähiger Merkmale, Merkmalsselektion sowie der Klassifikation[4].
Die Ergebnisse sowie abschließende Diskussionen bezüglich der Verwendbarkeit von maschinellen Lernverfahren auf dem Kapitalmarkt werden im vierten Kapitel erörtert. Dabei wird eine umfassende Schlussbetrachtung angeführt, die Aufschluss darüber geben soll, inwiefern das Machine Learning auf dem Aktienmarkt verwendet werden kann.
2 Grundlagen
2.1 Prozess des Machine Learnings
2.1.1 Lernverfahren
Die lernende Maschine soll auf möglichst effiziente Weise und ohne gravierende Abweichungen die ihr übermittelten Daten klassifizieren. Folglich müssen alle relevanten Merkmale selektiert und berücksichtigt werden, um die relevanten Daten klassifizieren zu können. Es existieren insgesamt drei verschiedene Verfahrensweisen, um die vorhandenen Daten zu annektieren. Gemäß Keller (2000) ist zwischen überwachtem Lernen (Supervised Learning) und nicht-überwachtem Lernen (Unsupervised Learning) zu unterscheiden[5].
Im Unterschied zu der Lernmethode des nicht-überwachten Lernens werden bei dem überwachten Lernen keinerlei Schlussfolgerungen durch die Maschine selbst getroffen. Dies bedeutet, dass die kognitive Anstrengung bei dem Prozess des Selektierens seitens des Lehrers (z.B. des Programmierers) erfolgt[6].
Im Gegensatz zum Supervised Learning werden bei der oben bereits erwähnten Methode des nicht-überwachten Lernens selbst neue Theorien durch die Maschine konzipiert. Damit dieses System durch Experimente und Beobachtungen strukturiertes und verwendbares Wissen erhält, müssen eine erhebliche Anzahl von Schlussfolgerungen durchgeführt werden[7].
Laut Stuart Russel und Peter Norvig (2012) existieren nicht nur die zwei elementaren Lernmethoden überwachtes bzw. nicht-überwachtes Lernen, sondern ebenfalls das sogenannte Reinforcement Learning (verstärkendes Lernen). Bei dieser Methode erhält die zu lernende Maschine ein bestimmtes Feedback in Form von Verstärkungen, Belohnungen oder Bestrafungen[8].»Beispielsweise könnten das Fehlen eines Trinkgeldes am Ende einer Fahrt für den Taxi-Agenten ein Hinweis darauf sein, dass er etwas falsch gemacht hat«[9].
2.1.2 Lernansätze & Algorithmen
Um Aufschluss darüber zu geben, wie die zu lernenden Daten mit Hilfe verschiedenster Algorithmen klassifiziert werden können, beschreibt dieser Absatz drei exemplarische Ansätze zur Klassifikation der Daten.
- Künstliche neuronale Netze
- Naive Bayes Klassifikation
- K-Nearest Neighbor
Das Ziel der künstlichen neuronalen Netze ist es, die Arbeitsweise des menschlichen Gehirns zu imitieren und dieses als mathematisches Modell darzustellen[10]. Diese Form der Klassifikationsweise wird dann eingesetzt, um komplexe Relationen zwischen Ein- und Ausgabewerten zu erkennen. Künstliche Neuronen simulieren die Funktionsweise einer biologischen Nervenzelle und setzen sich aus einzelnen Einheiten zusammen, welche aus vier verschiedenen Komponenten bestehen: Soma, Dendriten, Axon und den Synapsen. Das mathematische Äquivalent zur biologischen Nervenzelle besteht ebenfalls aus der Soma, welche in drei grundsätzlichen Funktionen aufgeteilt ist: Eingabefunktion, Aktivierungsfunktion sowie der eigentlichen Ausgabe, welche an die Ausgabeverknüpfungen weitergeleitet werden (Axon). Jeder einzelnen Eingabeverknüpfung wird einer Gewichtung zugeordnet. Diese Gewichtung bzw. Verstärkung von bestimmten Eingangssignalen (Dendriten) wird durch die sogenannten Synapsen (Bias-Gewicht) durchgeführt[11]. Demnach ergibt sich die folgende Abbildung für das mathematische Modell eines Neurons[12]:
Im Gegensatz zu der bereits genannten Klassifikationsmethode der neuronalen Netze trifft der Naive Bayes Klassifikator, welcher zur Familie der überwachten Lernverfahren gehört, die Annahme, dass jedes einzelne Element autonom von den restlichen Elementen existiert[14]. »Das bedeutet, dass jedes einzelne Merkmal einen unabhängigen Wahrscheinlichkeitsbeitrag liefert, dass ein Objekt einer bestimmten Klasse angehört (Kotsiantis & Pintelas, 2005). Die Wahrscheinlichkeit dass ein Objekt der Klasse K angehört kann als a posteriori Wahrscheinlichkeit nach Bayes ausgedrückt werden«[15]:
Diese Gleichung kann an einem Beispiel erläutert werden. Der Naive Bayes-Filter wird beispielsweise dazu verwendet, um E-Mails zwei bestimmten Kategorien zuzuweisen: Spam oder nicht-Spam. Durch eine Modifikation der oben aufgeführten Gleichung ergibt sich ein Konstrukt, welches zur Klassifikation von E-Mails in den beiden bereits genannten Kategorien durchgeführt wird.
Die elementare Frage, welche bei der Verwendung des naive Bayes Algorithmus hinsichtlich der Spam-Filterung gestellt werden muss, ist, »wie hoch die Wahrscheinlichkeit ist, dass die Nachricht, die aus den n Wörtern besteht, zur Kategorie Spam beziehungsweise Ham gehört«[16]. Ham bezeichnet in diesem Kontext eine, im Gegensatz zum Spam, erwünschte E-Mail.
Die Problematik, komplexe Sachverhalte zu klassifizieren, wird durch diesen Algorithmus deutlich vereinfacht. Ein weiterer gravierender Vorteil des „Naive Bayes“ Klassifikators ist die hohe Konvergenzgeschwindigkeit, sowie der geringere Speicherbedarf während der Trainingsphase der zu lernenden Maschine. Ein weiterer Ansatz zur Differenzierung der zu lernenden Datensätze ist das k-Nearest Neighbor Prinzip. Wie der Naive Bayes Klassifikator gehört die K-Nearest Neighbor Methode zum Verfahren des überwachten Lernen. Das Konzept des „nächsten Nachbarn“ trifft die Entscheidungen anhand der nächstgelegenen Trainingsobjekte im Merkmalsraum[17]. Dabei werden die nächsten Nachbarn in einer Mehrheitsentscheidung mit einbezogen[18].
Das k-Nearest Neighbor Prinzip findet beispielsweise im Bereich der Bonitätsprüfung Verwendung. Um zu erfassen, welche Person ihre Rechnung bezahlt bzw. nicht bezahlt, werden diese Personen in zwei bestimmte Klassen eingeteilt (Klasse 1 = Person bezahlt Rechnung; Klasse -1 = Person bezahlt Rechnung nicht). Die Klassifikation findet nur mittels der Merkmale Alter und der Höhe des Einkommens statt. Andere Einflüsse werden in diesem Beispiel nicht berücksichtigt. Um nun zu ermitteln, ob eine Person A den Betrag einer Rechnung begleichen würde, werden nun zum Beispiel die Klassenzugehörigkeit der fünf nächsten Nachbarn ausgewertet und mit der Person A verglichen. Hinsichtlich der Merkmale Alter und Einkommen haben in diesem Beispiel in der Vergangenheit drei von fünf Personen mit den nächstgelegenen Ausprägungen im Merkmalraum ihre Rechnung bezahlt. Nur zwei Personen haben den Prozess der Bezahlung nicht durchgeführt. Demnach wird die Person A der Klasse 1 zugeordnet. Ein überaus großer Vorteil des „k-Nearest Neigbor“ Klassifikators ist, dass im Prinzip kein Training der zu lernenden Maschine benötigt wird, sondern nur die Merkmalsvektoren (in diesem Fall Alter und Einkommen) »der einzelnen Objekte und deren Klassenetikett gespeichert werden«[19][20].
2.1.3 Anwendungsgebiete
Die unter 2.1.2 genannten Lernverfahren des Machine Learning finden in vielen alltäglichen Bereichen bereits Verwendung. »Neben dem Einsatz in der Bioinformatik, Robotik und für die physiologische Mustererkennung (Sprach-, Handschrift- oder Gesichtserkennung), werden Formen des Machine Learning unter Anderem zur Textkategorisierung und für medizinische Zwecke (Diagnose, Prognose und Wirkstofferkennung) herangezogen«[22].
Weitere Teilbereiche der Wirtschaft, in denen das Machine Learning bereits integriert wurde, sind die Marktanalyse (Marketing) und das Finanzwesen. Abbildung 2.2 veranschaulicht die anfallenden Datenmengen in den jeweiligen Anwendungsgebieten, welche von den Systemen basierend auf unterschiedlichen Lernverfahren verwendet werden[23].
2.2 Finanzmarkt
Auf allen Finanzmärkten weltweit werden finanzielle Mittel von dem Kapitalanbieter (Anleger) zu den Kapitalnachfragern (Investoren) übermittelt. Diese These wird durch die Abbildung 2.3 veranschaulicht. Der Bereich der Kapitalanbieter setzt sich aus dem Sektor der privaten Haushalte zusammen. Aufgrund der Bereitstellung des Kapitals durch die Anleger erhalten diese einen Gegenwert, welcher oft in Form von Wertpapieren ausgeschüttet wird. Die Investoren setzen sich aus zwei Teilbereichen zusammen: Unternehmen und Staat. Die Vermittlung des eingesetzten Kapitals, sei es Eigenkapital oder Fremdkapital, wird durch so genannte Finanzintermediäre durchgeführt. Dazu gehören z.B. Banken, Versicherungen, Bausparkassen und Fondsgesellschaften. Diese Institutionen agieren dementsprechend als Transportunternehmen der Finanzanlagen[24].
Der Teil des Kapitals, welcher nicht zur Finanzierung von inländischen Sachinvestitionen verwendet wird, fließt als Netto-Kapitalexport ins Ausland. Der Netto-Kapitalexport errechnet sich durch Kapitalexporte minus Kapitalimporte. Es ergibt sich die logische Schlussfolgerung, dass aus der Sicht des Inlands das Geldvermögen in Form von Netto-Auslandsforderungen steigt, das Ausland aber hingegen Netto-Verbindlichkeiten gegenüber dem Inland eingeht, sodass sich das Geldvermögen vermindert[25].
2.2.1 Akteure des Finanzmarktes
Damit der tägliche Betrieb des Finanzmarktes gewährleistet werden kann, ist die Interaktion verschiedenster Akteure erforderlich. Die Abbildung 2.4 zeigt die wichtigsten Akteure des Finanzmarktes mit den dazugehörigen Institutionen. Der folgende Abschnitt beschreibt die Interaktion und Kommunikation der Akteure untereinander und deren Funktionen auf dem Finanzmarkt.
Zentralbanken
»Zentralbanken handeln im gesamtwirtschaftlichen Interesse«[28]. Laut Sperber (2014) ist es die wesentliche Aufgabe der europäischen Zentralbank (EZB) für Geldwertstabilität innerhalb der Mitgliedsländer der Europäischen Währungsunion zu garantieren. Dazu gehört es, Konjunkturen zu stimulieren aber auch Rezessionen frühzeitig zu erkennen, um diesen positiv entgegenwirken zu können. Die EZB soll vor allen Dingen jedoch für eine gewisse Preisstabilität sorgen, d.h. es soll sowohl ein Anstieg des Preisniveaus um mehr als zwei Prozent jährlich als auch ein Rückgang des Preisniveaus vermieden werden. Umgangssprachlich ist die Zentralbank die Bank des Staates und der Banken. Somit agiert eine Zentralbank als letzte Refinanzierungsquelle der Kreditinstitute und fungiert als Hausbank des Staates.[29].
Geschäftsbanken
Zu den primären Aufgaben der Geschäftsbanken gehört das sogenannte Commercial Banking. Bei dem Commercial Banking handelt es sich um die Entgegennahme von Kundeneinlagen und die Gewährung von Fremdkapital. Zudem organisieren die Geschäftsbanken den allgemeinen Zahlungsverkehr und den Währungstausch. Neben den Zentralbanken sind die Geschäftsbanken ausnahmslos einer der wichtigsten Akteure am Finanzmarkt, da sich ihre Aufgabenbereiche auf die komplette Volkswirtschaft orientiert. Neben dem Commercial Banking existiert das sogenannte Investment Banking. Dieser Zweig des Bankgeschäfts behandelt hauptsächlich Tätigkeiten wie z.B. die Vermögensverwaltung von Kunden, der Handel von Wertpapieren, Mergers & Acquisitions (Fusionen und Übernahmen) sowie Corporate Finance (Unternehmensfinanzierung)[30].
Institutionelle Investoren
»Hierbei handelt es sich einmal um Unternehmen, die im Rahmen ihrer Geschäftstätigkeit (Bausparkassen, Versicherungen) Einzahlungen entgegennehmen und dieses Kapital für eine Zwischenzeit anlegen und verwalten«[31]. Darüber hinaus investieren andere Institutionen wie Stiftungen, Universitäten oder Kirchen ihre finanziellen Mittel, welche durch Mitgliedsbeiträge oder Sponsoren zusammenfließen. Zudem gibt es sogenannte Pensionskassen, welche durch Beiträge vom Arbeitgeber sowie -nehmer gefüllt werden. Große Unternehmen wie Daimler, Volkswagen oder Siemens verwalten solche »Pensionsfonds«, die über mehrere Jahre hinweg eine beachtliche Summe an Vermögen aufbauen. Dieses Kapital, welches von Fondsmanagern verwaltet wird, kann dem Arbeitnehmer nach seiner Pensionierung dann als zusätzliche Betriebsrente zur Verfügung gestellt werden[32].
Kapitalanlage- bzw. Investmentgesellschaften
Kapitalanlage- bzw. Investmentgesellschaften sind spezielle Unternehmen, welche Investmentfonds emittieren. Zumeist handelt es sich bei diesen Unternehmen um Tochtergesellschaften von Banken. Das Konzept des Investmentfonds arbeitet nach folgendem Prinzip: Die Anleger investieren einen bestimmten Betrag und erhalten dafür im Gegenzug Fondsanteile ihrem Depotwert gutgeschrieben. Über solche Anteilsverkäufe kommen in dem Investmentfonds idealerweise mehrere hundert Millionen Euro zusammen, welcher hier als „Topf“ betrachtet werden kann, in den die Kapitalgeber investieren. Durch den Erwerb solcher Fondsanteile an einem diversifizierten Portfolio kann somit das Risiko der Investition minimiert werden[33]. Dieses Prinzip der Geldanlage ist für Kunden interessant die nach einer weniger risikobehafteten Investitionsmöglichkeit suchen.
2.2.2 Definition des Kapitalmarktes
»Zum Markt für langfristige Finanzierungen (Laufzeit mehr als 4 Jahren) gehören zum einen der Kapitalmarkt«[35]. Üblicherweise wird der Kapitalmarkt auch als Wertpapiermarkt bezeichnet, da an diesem hauptsächlich börsenfähige Wertpapiere wie z.B. Aktien oder Anteile an Investmentfonds emittiert und gehandelt werden. Unterschieden wird in Anleihen-, Renten- und Aktienmarkt. Der bereits genannte Renten- und Aktienmarkt wird aufgeteilt in Primär- sowie Sekundärmarkt. Diese beiden Formen des Aktienmarkts werden in Kapitel 2.2.3 dieser Arbeit erläutert. Eine andere Umschreibung des Pimär- bzw. Sekundärmarkts ist der organisierte Kapitalmarkt. Alle Wertpapiermärkte werden unter diesem Begriff definiert. Der Gegensatz zum organisierten Kapitalmarkt ist der nicht organisierte Kapitalmarkt. Dieser befasst sich hauptsächlich mit dem direkten bzw. indirekten Handel von Darlehen, Beteiligungen und Hypotheken zwischen Anbietern und Nachfragern. Der Kontrast zum Kapitalmarkt ist der sogenannte Geldmarkt. Dieser behandelt Märkte für kurz- und mittelfristige Finanzierungen[36].
2.2.3 Aufgaben-, Funktionen und Bereiche des Kapitalmarktes
Der Kapitalmarkt als solches, welcher die Aufgabe hat die mittel- sowie langfristigen Kapitalanlagen bzw. -aufnahmen zu organisieren, besteht insgesamt aus zwei Teilbereichen:
- Organisierter Kapitalmarkt
- Nicht organisierter Kapitalmarkt
Diese beiden Bereiche des Kapitalmarktes handeln hauptsächlich Wertpapiere. Dazu gehören unter anderem Aktien und Industrie-, Bank- und Staatsanleihen sowie Anteile an Investmentfonds. Ein weiterer Bestandteil des Kapitalmarktes sind die Märkte für Hypothekendarlehen. All diese Anlageformen sind für die langfristigen Finanzierungen ausgelegt[37].
Der organisierte Kapitalmarkt behandelt zumeist alle längerfristigen Transaktionen unter Einschaltung von Kreditinstituten und Kapitalsammelstellen. Die ausgeprägteste Form des organisierten Kapitalmarktes ist die Börse. Der organisierte Kapitalmarkt steht unter ständiger Beobachtung des Staates. Das Gegenstück des organisierten Kapitalmarktes ist der nicht organisierte Kapitalmarkt. Zu diesem Teil des Kapitalmarktes gehören insbesondere Kreditbeziehungen zwischen Unternehmen, zum Beispiel in Form eines langfristigen Lieferantenkredits. Ebenfalls Kreditbeziehungen zwischen privaten Haushalten sowie zwischen Unternehmen und Haushalten sind Bestandteil des nicht organisierten Kapitalmarktes[38].
Ein sehr guter Träger dafür, um Kapital in Umlauf zu bringen, sind Wertpapiere. Kapitalsuchende Unternehmen (KN) oder der Staat lancieren Wertpapiere in Form von Geldmarktpapieren, Anleihen oder Aktien, welche üblicherweise von Banken bzw. einer Gruppe von Banken an die Kapitalinvestoren (KA) verkauft werden. Diese erstmalige Kapitalvermittlung geschieht auf dem Primärmarkt, welcher in Abbildung 2.6 auf der linken Seite zu erkennen ist. Der Kapitalnachfrager, in diesem Falle das Unternehmen, welches seine Wertpapiere emittiert, erhält für eine bestimmte Anzahl von Aktien den entsprechenden Gegenwert. Dieser Prozess ist an dem Geld- bzw. Wertpapierstrom in der Grafik deutlich zu erkennen. Die Kapitalinvestoren, welche während der Erstemission der Wertpapiere auf dem Primärmarkt beispielsweise Aktien eines Unternehmens erworben haben, können diese erworbenen Wertpapiere auf dem so genannten Sekundärmarkt in Umlauf bringen. Die Wertpapiere werden lediglich anderen Kapitalanbietern verkauft. Zusammenfassend ist der Sekundärmarkt eine Plattform für den Handel mit bereits in Umlauf befindlichen Wertpapieren. Dieser Handel mit Wertpapieren, welche sich bereits im Umlauf befinden, wird auch als Börse bezeichnet und obliegt bestimmten gesetzlichen Regelungen und Kontrollen. Ein weiterer Sektor des Sekundärmarktes ist der außerbörsliche Handel, welcher auch »Telefonhandel« genannt wird[39].
Neben der Kapitalvermittlung haben die Finanzmärkte noch andere Funktionen, wie die Losgrößentransformation. Bei dieser Art der Transformation werden viele kleine Anlagebeträge von den Banken gebündelt, um eine Finanzierung großer Investitionen zu ermöglichen. Neben der Losgrößentransformation existieren noch die Fristentransformation und die Risikotransformation[41].
- Fristentransformation: Bei der Fristentransformation wird gezielt von der Überlassungsdauer der angelegten Gelder eines Unternehmens abgewichen[42]
- Risikotransformation: »Risikotransformation bewirkt, dass das Risiko eines Unternehmens von vielen Anlegern gemeinsam getragen wird«[43]
2.3 Machine Learning zur Prognose Finanzmarktspezifischer Daten
Die Börse ist ein elementarer Teil des Finanzmarktes. Die Grundlage zur Prognostizierung von Finanzdaten wie z.B. Aktien- oder Fondsverläufe sind die Historiendaten, welche in Betracht gezogen werden müssen. Da progressive Computersysteme des 21. Jahrhunderts dieses enorme Datenaufkommen aufgrund verschiedener Klassifikationsalgorithmen deutlich schneller analysieren können als der Mensch, werden immer mehr analytische Aufgaben an Maschinen delegiert. Die Bedingung für Durchführung dieser analytischen Aufgaben sind das Festlegen von definierten Rahmenbedingungen.
2.3.1 Datenaufnahme und Vorverarbeitung
Als Prämisse für die Prognoseerstellung durch progressive Computersysteme des 21. Jahrhunderts, muss ein relevanter Datenbestand vorliegen. Beim erstellen besagter Datenprämisse muss akkurat ausgewählt werden welche Daten zu berücksichtigen sind, da jeder nicht zielführende Datensatz die Datenprämisse verfälscht[44]. Beim Erheben der Datenprämisse ist es, aufgrund der Erhebungsmethoden und der Beschaffenheit der zu erhebenden Daten,(Video, Ton, Kursverläufe, etc.) denkbar, dass die Datenprämisse nachteilig beeinflusst wird. N Die Aufnahme eines Stimmmusters ist beispielsweise durch Hintergrundgeräusche verfälscht. Hierdurch ist die Datenprämisse inkorrekt. Es ist unumgänglich das die kompromittierenden Geräusche aus dem Stimmmuster isoliert und entfernt werden, bevor dieser Datensatz Teil der Datenprämisse wird. Derlei korrigierendes Eingreifen im vorne herein nennt sich Preprocessing. Ohne Preprocessing kann nicht gewährleistet werden, dass die Datenprämisse relevant und aussagekräftig für die angestrebten Zwecke ist.[45] Beim Erstellen der Datenprämisse müssen mandatorisch auch exogene Daten berücksichtigt werden. Am Beispiel eines Aktienkurses wird deutlich, dass der Kursverlauf unabhängig von der Art des Verlaufes (Positiv oder Negativ) unter anderem von politischen Entscheidungen abhängig ist. Unberücksichtigte exogene Einflüsse beeinträchtigen somit die Prognosequalität enorm. Aus dieser Erkenntnis kann gefolgert werden, dass bekannte und absehbare exogene Faktoren zwingend in die Datenprämisse aufgenommen werden müssen[46].
2.3.2 Umgang mit den zu verarbeitenden Merkmalen
Beim Studieren der Datenprämisse ergeben sich Merkmale mit differenzierter Aussagekraft über das Betrachtungsobjekt. Ein Betrachtungsobjekt wird als ein einzelnes Objekt der Datenprämisse definiert. Wird das Beispiel eines Aktienverlaufs zu Grunde gelegt, ist es denkbar, dass die Merkmale explizit das Betrachtungsobjekt skizzieren. Derlei Merkmale nennt man direkte Merkmale. Weiterhin ist denkbar, dass Merkmale, welche das Betrachtungsobjekt nur dann direkt skizzieren, wenn diese in Verbindung mit anderen Merkmalen studiert werden, existieren. Diese Merkmale nennen sich indirekte Merkmale. Es gilt aus dem kooperativen Studium der indirekten Merkmale, neue direkte Merkmale zu etablieren. Das Fusionieren von Merkmalen wird somit ein wesentlicher konstitutiver Bestandteil beim Studium von Merkmalen, um eine direkte Skizzierung des Betrachtungsobjektes zu erreichen. Merkmale mit gültiger Aussagekraft werden hierbei nicht verworfen, sollten diese mit einem nicht gültigem Merkmal fusioniert werden.[47]Merkmale, die sich auf identische Betrachtungsobjekte beziehen, weisen eventuell differenzierte Ausprägungen auf. Diese Sachlage berücksichtigend, ist es erforderlich, die studierten Merkmale zu Standardisieren, um das Betrachtungsobjekt generisch zu definieren.[48]Merkmale mit differenzierten Ausprägungen sind generalisierbar. Beim Generalisieren von Merkmalen muss sich darauf besonnen werden, dass durch die Generalisierung, mandatorisch spezifische Daten verloren gehen. Notwendigerweise muss entschieden werden, welcher Spezifikationsgrad und welche Generalisierungsstufe benötigt werden.[49]
2.3.3 Validierung der erhobenen Daten
Die erstellten Klassifikationen müssen kritisch bewertet werden, ob diese das Betrachtungsobjekt genügend beschreiben. Hierzu können die vorhandenen Daten in drei verschiedene Teile unterteilt werden. Es wird ein Teil benötigt anhand dessen die Klassifizierungen angepasst werden. Ein weiterer Teil dient zur Überprüfung der Klassifikationen, damit aufgrund dieser Klassifikationen, Parameter für die Erstellung von Prognosen erstellt werden können. Um die definierten Parameter auf Gültigkeit zu verifizieren, wird der dritte Teil der Daten verwendet. Damit eine möglichst präzise Verifizierung der Parameter erzielt wird, muss mandatorisch die Anzahl der Verifizierungsdurchläufe maximiert werden. Eine maximierte Anzahl Verifizierungsdurchläufe garantiert eine höhere Präzision. Auf diese Weise ist es realisierbar zu verifizieren, ob die definierten Parameter nur für einen Teil oder für die Gesamtheit der Datenprämisse Gültigkeit besitzen.[50]
2.4 Analysetechniken
2.4.1 Fundamentalanalyse
Mithilfe der Fundamentalanalyse wird der Wert eines Unternehmens unter Berücksichtigung verschiedener Faktoren bewertet. Der Ansatz der Fundamentalanalyse folgt der Annahme, dass das betrachtete Unternehmen einen wirtschaftlichen Wert besitzt, dem sich der zugehörige Aktienkurs langfristig anpasst. Der Wert des betrachteten Unternehmens wird als innerer Aktienwert definiert. Mit dem inneren Aktienwert wird die Aktienrentabilität bewertet, was Rückschlüsse auf die Branchenrentabilität ermöglicht. Eine geläufige Methode ist die Present Value Theory. Die Present Value Theory besagt, dass der innere Wert der Aktie durch die Summe der Dividenden und weiteren Geldwerten Vorteile auf eine einzelne Aktie entfallen und auf den aktuellen Tag abgezinst werden. Das Gegenwartswert- oder Barwertkonzept ermöglicht die Errechnung des inneren Wertes[52].
Das vereinfachte Konzept des Price-Earning-Ratio-Verfahrens (PER) erlaubt Rückschlüsse auf die Zukunftsaussicht der Kursgewinne eines studierten Unternehmens. Durch dieses Mittel wird eine möglichst zeitnahe Einsicht der Kursgewinnchancen von Firmenaktien gewonnen. Es ist mandatorisch zu berücksichtigen, dass die Kursgewinnchancen sich in Abhängigkeit zu dem inneren Wert der Aktie befinden[54].
Erwähnenswert ist, dass Konklusionen den globalen Markt betreffend, anhand der Skizzierung eines einzelnen Unternehmens erarbeitet wurden, nur von ungenügender Qualität sind. Es sollte ebenso vermieden werden, anhand des globalen Marktes Schlussfolgerungen für ein spezifisches Unternehmen zu ziehen. Um Konklusionen annehmbarer Qualität zu ziehen, ist es mandatorisch Unternehmens spezifische, Branchenspezifische sowie globale Aspekte zentralisiert zu beurteilen[56].
Verfahren, um Unternehmens spezifische, Branchenspezifische und globale Aspekte zu Studieren, sind die Top-Down-Analyse und die Bottom-Up-Analyse. Die Top-Down-Analyse verfolgt den Ansatz globale Daten auf die Branche zu spezifizieren, die hierdurch etablierten Konklusionen werden wiederum auf die Unternehmen spezifiziert. Bei der Bottom-Up-Analyse wird vice versa versucht, die unternehmensspezifischen Konklusionen auf die Branche zu generalisieren, welche wiederum auf den globalen Markt generalisiert werden[57].
2.4.2 Technische Analyse
Die Technische Analyse – teilweise auch als Chartanalyse bekannt –versucht durch Beobachtung von Marktbewegungen Kurstrends vorherzusagen. Es wird davon ausgegangen, dass alle nötigen Marktinformationen bereits in den Kursverläufen enthalten sind und eine Analyse der betriebswirtschaftlichen Daten des Unternehmens nicht notwendig ist. Die Technische Analyse lässt sich in drei Ansätze unterteilen [59]
1. Die Marktbewegung diskontiert alles
2. Kurse bewegen sich in Trends
3. Die Geschichte wiederholt sich selbst
1. Die Marktbewegung diskontiert alles
Alles was die Kurse beeinflussen kann wird durch den Marktpreis wiedergespiegelt. Es wird angenommen, das die Kurse steigen sobald die Nachfrage größer dem Angebot ist und die Kurse fallen sobald das Angebot die Nachfrage übertrifft. Durch diese Annahme ist es beim Machine Learning möglich ein Verhaltensmuster aus dem Kursverlauf und dem Marktpreis zu erstellen, um daraus eine Vorhersage zu den weiteren Kursverläufen ableiten zu können.
2. Kurse bewegen sich in Trends
Eine Analyse von Aktienverläufen erfordert mandatorisch die Einteilung besagter Verläufe in Trends. Trends verdeutlichen Aktienverläufe und ermöglichen somit Wahrscheinlichkeitsprognosen über den weiterführenden Verlauf[60]. Als Prämisse für die Einteilung in Trends muss definiert werden welche Anzahl von Trendarten zu spezifizieren sind. Ferner ist Bestandteil der Prämisse, welche Distinktionen es zwischen den spezifizierten Trends existieren und wie besagte Trends sich unterscheiden. Um Trends zu definieren, werden die Verlaufsrichtungen der kurzzeitigen Kursspitzen (weiterhin genannt Gipfel) und der kurzzeitigen Kurstiefen (weiterhin Täler genannt) studiert. Hierdurch werden die Trends wie folgt definiert. Eine Seitwärtsbewegung von Gipfeln und Tälern definieren einen Seitwärtstrend, eine sukzessive Steigerung von Gipfeln und Tälern definieren einen Aufwärtstrend vice versa definiert einer sukzessiver Abfall der Gipfel und Täler einen Abwärtstrend[61].
Jeder Trend wird als langfristig, kurzfristig oder mittelfristig kategorisiert[63]. Es gilt zu berücksichtigen das jede Trendart innerhalb eines Aktienverlaufes unendlich häufig existiert. Um die Menge der zu betrachtenden Trends zu minimieren ist mandatorisch zu definieren welcher Zeitraum als langfristig, kurzfristig oder mittelfristig gültig ist. Eine Zeitraumdefinition für langfristige Trend ist eine Trenddauer von größer sechs Monaten. Mittelfristige Trends sind als gleichbleibende Trendverläufe von drei Wochen bis mehreren Monaten definiert. Alle Trendverläufe, die kürzer als drei Wochen andauern, werden als kurzfristiger Trend definiert[64].
Zusammenfassend wurde definiert, dass Trends aus Gipfeln und Tälern bestehen. An dem Zeitpunkt an dem ein Tal niedrig genug ist, wechselt das Verkaufsverhalten in ein Kaufverhalten. Hierdurch wird der vorherrschende Abwärtstrend zu einem Aufwärtstrend. Dieser exakte Zeitpunkt wird als Unterstützung definiert. Vice versa wird der exakte Zeitpunkt eines Wechsels von Aufwärtstrend zu Abwärtstrend als Widerstand definiert[65].
Eine Widerstandslinie ist nicht ausserstande einen steigenden Trend zu unterbrechen, infolge dessen ist die Widerstandlinie als kurzzeitige Unterbrechung definiert. Für eine Unterstützungslinie folgt der gleichen Gesetzmäßigkeit. Ein fortgesetzter Aufwärtstrend kann dadurch bestimmt werden, dass die sukzessive aufeinander folgenden Unterstützungen einen höheren Kurspunkt beschreiben, als die jeweilige vorhergehende Unterstützung. Ein fortgesetzter Abwärtstrend ist bestimmbar, sobald die sukzessive aufeinander folgenden Widerstände tiefere Kurspunkte beschreiben, als der jeweilige vorangegangene Widerstand. Es ist unumgänglich zu definieren wie Kurswechsel bestimmt wird. Ein Kursabfall kann bestimmt werden, sobald in einem Aufwärtstrend ein Kursabfall die vorhergegangene Unterstützungslinie unterschreitet. Nach dieser Gesetzmäßigkeit kann ebenfalls bestimmt werden, dass ein Kursanstieg vorliegt, sobald in einem Abwärtstrend die vorhergegangene Widerstandslinie überschritten wird. Die Bestimmung eines Kursanstiegs oder Kursabfalls, ermöglicht eine Trendumkehrung oder den Übergang in einen Seitwärtstrend[67]. Wird nach einem Trendwechsel von einem Abwärtstrend die höchste bisherige Widerstandslinie deutlich überschritten wird diese beim Trendwechsel als neue Unterstützungslinie gewertet. Dieses vorgehen nennt sich Rollentausch von Unterstützung und Widerstand[68].
3. Die Geschichte wiederholt sich selbst
„Der Schlüssel zum Verständnis der Zukunft liegt im Studium der Vergangenheit, oder die Zukunft ist nur eine Wiederholung der Vergangenheit[71]“ Hierbei wird angenommen, dass sich Aktientrends in der Vergangenheit bereits abgespielt haben. Vergangene Kursinformationen bzw. Markteinflüsse, die sich der Annahme nach wiederholen müssten, können dabei für eine Vorhersage verwendet werden.
3 Anwendung des Machine Learning – Aktienkursprognosen
3.1 Grundlage der zu lernenden Daten
Grundlage für die zu lernenden Daten sind einerseits die Quellen, welche zur Prognosenerstellung benötigt werden und zum anderen die Methodik, um diese auswerten zu können. Um Aktienprognosen mittels Machine Learning erstellen zu können, müssen zu Beginn die Quellen hinsichtlich der benötigten Daten definiert werden. Für eine Prognose sollten die Daten aus Quellen stammen von der sich auch andere Aktieninhaber Informationen beschaffen würden, um somit ein Verhalten zwischen Angebot und Nachfrage besser bestimmen zu können. Quellen die Informationen über zukünftige Dividenden, Zinssätze und zukünftige Kurse liefern sind hierfür geeignet. Die Informationen können automatisiert aus Onlineportalen bzw. Nachrichtenmagazinen entnommen oder manuell eingegeben werden. Bei einer manuellen Eingabe ist eine weitere Kontrolle durch den Anwender möglich was auf der einen Seite zwar den Aufwand erhöht, aber auf der anderen Seite sicherstellt das nur geprüfte Daten für eine Prognose verwendet werden. Als Grundlage für die maschinelle Auswertung der Daten, wird in dieser Arbeit auf das neuronale Netz weiter eingegangen. Ein neuronales Netz besteht aus künstlichen Neuronen und stellt einen Teil der künstlichen Intelligenz dar. Bei der Mustererkennung, Kategorisierung oder auch Prognose werden neuronale Netze erfolgreich eingesetzt[72]. Im Gegensatz zu einem Computerprogramm müssen neuronale Netze nicht programmiert oder auf eine bestimmte Situation angepasst werden. Mit vorhandenen Daten kann so ein Netz angelernt werden und auf Grundlage dessen, in einer neuen bzw. unbekannten Situation mit den gelernten Daten assoziativ reagieren[73]. Intern arbeitet ein Netz mit unterschiedlichen Neuronen die miteinander in verschiedenen Schichten verknüpft sind. In dem Inputlayer werden die Eingaben von der Außenwelt entgegengenommen und gewichtet an Hiddenlayer weitergeleitet. Der Hiddenlayer bewertet die Eingangssignale und gibt diese Anschließend an den Outputlayer weiter, wo diese dann ausgegeben werden. In einigen Anwendungsfällen, wird auf die Verwendung eines Hiddenlayer verzichtet. Dann werden die Informationen direkt von dem Input- an den Outputlayer weitergegeben. Die Neuronen haben so gesehen als Aufgabe Informationen aus der Umwelt oder von anderen Neuronen aufzunehmen und diese in abgewandelter Form weiterzugeben. Im Outputlayer wird anschließend das kumulierte Ergebnis ausgegeben[74]. Je nach Lernstand des neuronalen Netzes erfolgt durch eine Menge von Eingaben, eine auf die Eingaben bezogene Menge von Ausgaben. Durch den Lernstand können die Neuronen individuell Verknüpfungen zu anderen Neuronen aufbauen, Gewichtungen ändern oder Verknüpfungen trennen[75]. Wie bereits erläutert, sind die einzelnen Neuronen mit einer Gewichtung verknüpft. Je höher der Absolutbetrag der Gewichtung ist, um so größer ist auch der Einfluss auf die nächste Einheit. Eine positive Gewichtung gibt an, dass ein Neuron einen erregenden Einfluss auf den nächsten Layer ausübt. Eine Negative Größe bedeutet, das das Neuron hemmend auf den anderen Layer wirkt. Bei einem Wert von Null wird keine Wirkung auf die nächste Schicht ausgeübt. Neben der Gewichtung wird das Ergebnis zum nächsten Neuron auch durch dessen Output-Leistung oder auch Output-Betrag genannt, beeinflusst. Erst die Multiplikation zwischen Output-Betrag und Gewichtung ergibt das Ergebnis welches als Input an das nächste Neuron weitergeben wird. Input für das nächste Neuron kann auch als Formel angegeben werden: Input der Unit i: input = Output-Betrag * Gewichtung Bei einem Output-Betrag von „-3“ und einer Gewichtung von „-0,5“ würde ein Input von „1,5“ am nächsten Neuron anliegen[76]. Der Inhalt des Outputlayers wird durch die Anordnung bzw. Gewichtung der einzelnen Neuronen bestimmt. Eine kleine Veränderung der Gewichtung kann somit schon das Ergebnis der vorhin im Beispiel genannten Kreditzusage beeinflussen. Im Folgenden wird ein exemplarisches Beispiel gezeigt, wie die einzelnen Verbindungen der Neuronen bewertet werden können. Die Neuronen die in der Tabelle mit „0“ bewertet werden haben keine direkte Verbindung zueinander.
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | |
---|---|---|---|---|---|---|---|---|---|
1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
2 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
3 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
4 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
5 | 0,6 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
6 | -0,1 | 0,4 | 0,9 | 0 | 0 | 0 | 0 | 0 | 0 |
7 | 0 | -0,5 | -0,6 | 0,5 | 0 | 0 | 0 | 0 | 0 |
8 | 0 | 0 | 0 | 0 | 0,3 | 0,3 | 0 | 0 | 0 |
9 | 0 | 0 | 0 | 0 | 0 | 0,6 | 0,9 | 0 | 0 |
Durch die Aktivierungsfunktion der Neuronen, kann das Ergebnis auch weiter beeinflusst werden. Es kann z.B. ein Schwellwert (Schwellenwertfunktion) definiert werden, welcher nur beim Übersteigen die Funktion aktiviert[79].
Eine weitere Möglichkeit die Ausgabe zu beeinflussen stellt das Bias-Neuron bzw. Bias-Unit da. Ein Bias-Neuron ist ein zusätzliches mit dem Faktor 1 konstantes Neuron in dem Input- bzw. Hiddenlayer definiert ist. Die Gewichtung fällt entweder positiv oder negativ auf die anderen Neuronen aus. Bei einer positiven Gewichtung sorgt das Bias-Neuron dafür, dass die empfangene Einheit auch aktiv bleibt, wenn kein starker positiver Input der anderen Neuronen vorliegt. Bei einer negativen Gewichtung besteht die Gefahr das die verbundenen Units in einem negativen bzw. inaktiven Zustand verharren. Weiterhin ist einen Negativen Gewichtung von Vorteil, wenn ein Schwellenwert simuliert werden soll. Ein bestimmtes Ergebnis wird nur durch übersteuern des Bias-Neurons zugelassen. Die anderen Input-Neuronen müssen somit ungefähr ein einheitliches Ergebnis wiederspiegeln, um das Bias-Neuron übersteuern zu können. Der Bias-Wert ist somit eine Stellschraube, um das Ergebnis anpassen zu können[80].
3.2 Erstellung lernfähiger Merkmale
Bevor Daten für die Erstellung lernfähiger Merkmale verwendet werden können, müssen diese zunächst Aufbereitet werden. Ein sauberer Datenbestand ist die Grundlage des Machine Learning. Der Computer wird auch mit dem besten Klassifikationsverfahren bei unzureichend gefilterten bzw. nicht angepassten Daten keine guten Ergebnisse erziehen[81]. Swingler erkannte, dass die Daten zuerst gesäubert werden müssen, um ein zufriedenstellendes Ergebnis zu erziehen[82]. Die Säuberung der Daten ist zwar mit einem relativ hohen Aufwand verbunden, hat aber einen entscheidenen Einfluss auf die Güte der Ergebnisse[83]. Eine gute Datenqualität bzw. dessen Datenvorverarbeitung ist eine Grundlage für das Machine Learning.
Technische Handelssysteme die in den Jahren 1978-1984 auf Basis täglicher Kursdaten des US Futuresmarktes profitabel arbeiteten, erzielten in den Jahren 1985-2003 laut Park & Irwin keine positiven Erträge mehr. Schulmeister schrieb, dass die auf Tagesdaten basierenden technischen Handelssysteme seit den 1960er Jahren eine andauernde abnehmbare Profitabilität erwiesen, die ab den frühen 1990er Jahren unprofitable wurde. Eine Untersuchung hingegen Schulmeisters Studie, wurde auf Basis von 30-Minütigen Intervallen durchgeführt. Diese Untersuchung wies keine Abnahme der Profitabilität auf. Dr. Patrick René Thom führte aus diesem Grund eine weitere Untersuchung mit eher kurzfristigeren als täglichen Intervallen durch[85]. Er wählte ein Intervall von 15 Minuten aus, da nach seiner Ansicht hierdurch sowohl eine umfangreiche Datenbasis als auch eine hohe Aktualität der Kurse berücksichtigt sind. Die Untersuchung dauerte 1000 Handelstage und er hatte nachher eine Datenbasis von 26.000 Fünfzehn-Minuten Perioden. Neben dem Handelsvolumen lagen ihm die jeweiligen Eröffnungs-, Höchst-, Tiefst- und Schlusskurse vor. Die gewonnenen Rohdaten wurden in drei Stufen für eine Merkmalserstellung vorbereitet. In der ersten Stufe wurden Dividendenzahlungen und Kapitalmaßnahmen, wie das Einrechnen von Aktiensplits, in die Kurse durchgeführt. Trat ein Aktiensplitt ein, wurden alle Kurse durch den Faktor 2 von Thom dividiert und das Handelsvolumia anschließend verdoppelt[86]. In Abbildung 3.3 zeigt Thom grafisch wie er bei einem 2-zu-1-Aktiensplit vorgegangen ist. In der zweiten Stufe wurden die Daten auf mögliche Ausreißer untersucht. Kursänderungen von mehr als 10% wurden als Ausreißer definiert. Bei einem erkannten Ausreißer wurde ermittelt, ob es sich um einen fehlerhaften Datenpunkt oder einer existierenden Kursveränderung handelte. Fehlende Datenpunkte wären durch Interpolationsmöglichkeiten behandelt worden[87]. In der Dritten und letzten Stufe wurde die Vollständigkeit der Daten sichergestellt. Wie auch bei den fehlerhaften Datenpunkten wären hier fehlende Periodeneinheiten durch Interpolation behandelt worden[88]. Die so gewonnenen Daten können anschließend für weitere Maßnahmen zur maschinellen Prognose des Aktienkurses verwendet werden.
3.2.1 Chartdeskription
Um Kursverläufe und Kursänderungen schnell auf einem Blick erkennen zu können, werden diese meistens grafisch dargestellt. Dies kann z.B. mit einem Linienchart oder Balkendiagramm geschehen. Während Menschen diese Art von Darstellung leicht auswerten können, ist dies für Computer nicht sehr ideal. Für einen Rechner müssen die Daten numerisch bzw. Mathematisch beschrieben werden. Neben den Kursangaben, gehören auch Durchschnittswerte und Merkmale die eine relative Lage beschreiben zu den benötigten Daten. Relative Werte können aus der Differenz zwischen Eröffnungs-, Höchst-, Tiefst und Schlusskursen ermittelt werden. Mit einem Candlestickmuster können Kursverläufe für den Computer mathematisch beschrieben werden. Steigende Kurse werden mit einem weißen Kerzenkörper gezeichnet. An den beiden Äußeren Enden werden jeweils der Höchst und Tiefstkurs definiert. Der Höchstkurs oben und der Tiefstkurs unten. Der Schlusskurs wird direkt unter dem Höchstkurs und der Eröffnungskurs über dem Tiefstkurs angegeben. Fallende Kurse werden mit einem schwarzen Kerzenkörper beschrieben. Wie auch bei dem weißen Kerzenkörper wird der Höchstkurs ganz oben und der Tiefstkurs ganz unten definiert. Anders als beim weißen Kerzenkörper wird hier der Eröffnungskurs unter dem Höchstkurs und der Schlusskurs über dem Tiefstkurs beschrieben. Die folgende Abbildung stellt den Aufbau eines Candlesticks grafisch dar[91]. Abbildung 3.5 zeigt ein Beispiel wie Kursverläufe mit der Candlestick grafisch angezeigt werden können. Im oberen Bereich der Abbildung wird ein Linienchart einer Aktie dargestellt. Der untere Bereich zeigt dieses Linienchart in Candlestick-Notation. Die Größe, Farbe und Form der einzelnen Candlesticks liefern Informationen über Höchst-, Tiefst-, Schluss- und Eröffnungskurs der jeweiligen Periode. Die erstellten Candlestickmuster können anschließend für das Training von neuronalen Netzen für die Erstellung einer Aktienkursprognose verwendet werden.
3.2.2 Technische Indikatoren
Die technischen Indikatoren sollen helfen einen Trend möglichst früh erkennen zu können. Die verschiedenen technischen Indikatoren sollen als Ergebnis einen mathematischen Wert liefern, der aus den Kurs – und Handelsdaten ermittelt wurde. Hier wird auch versucht aus der Vergangenheit ermittelte Informationen in zukünftige Prognosen mit einfließen zu lassen. Für eine Vorhersage können verschiedene Oszillatoren verwendet werden. Im Rahmen dieser Arbeit wird nur auf begrenzte Zahl von der Vielfalt von Möglichkeiten mit Oszillatoren bzw. Indikatoren eingegangen. Ein Oszillator hilft dem Trader kurzfristige Extremsituationen zu erkennen und zu bewerten. Er warnt z.B. den Trader wenn ein Trend an Momentum verliert, bevor die eigentliche Situation bzw. Kursbewegung eintritt. Weiterhin können mit einem Oszillator Divergenzen angezeigt werden, das sich ein Trend seiner Vollendung nähert. Der Zeitpunkt in dem der Oszillator als Hilfsmittel verwendet wird, ist hier von entscheidender Bedeutung. Eine Oszillator-Analyse ist bei beginn bedeutender Kursbewegung nicht sehr hilfreich. Erst gegen Ende wird diese hilfreich[92].
Momentum
Im Folgenden wird die Oszillator-Analyse „Momentum“ weiter erläutert. Das Momentum zeigt die Geschwindigkeit von Kursbewegungen Grafisch an. Es werden fortlaufend Kursdifferenzen von einem Aktienkurs für ein festes Zeitintervall berechnet. Um die Differenz zu ermitteln wird der Schlusskurs von dem letzen Intervall vom aktuellen subtrahiert. Für die folgenden Beispiele wird ein Zeitintervall von 10 Tagen angenommen. Die Formel lautet hierzu:
Ist der errechnete Wert größer als der vor 10 Tagen, dann sind die Kurse gestiegen. Der Wert wird also oberhalb der Nulllinie eingetragen. Ist der Wert kleiner als der vor 10 Tagen, dass sind die Kurse gefallen. Der Wert wird in diesem Fall unterhalb der Nulllinie eingetragen. Ist der Wert über der Nulllinie und steigt, dann ist eine Beschleunigung des Aufwärtstrends zu verzeichnen. Ist der Wert zwar über der Nulllinie aber auch ein Trend Richtung dieser zu verzeichnen, dann ist der Aufwärtstrend noch intakt, allerdings nur noch mit abnehmbarer Steigung. Fällt der Graph unter der Nulllinie ist der aktuelle Wert der Aktie geringer als vor 10 Tagen. Der Verlangsamung des Abwärtstrends wird deutlich, sobald die Linie wieder anfängt zu steigen. In der folgenden Abbildung wird ein Momentum mit einem Intervall von 10 Tagen gezeigt.
Relative stärke Index
Ein weiterer technischer Indikator ist der „Relative stärke Index“ (RSI). Ein Vorteil von RSI ist es, dass dieser für eine Glättung von Verzerrungen und eine n konstanten Bandbreitenwert zwischen 0 und 100 liefert. Eine Schwäche des vorhin vorstellten „Momentums“ ist, dass plötzliche Veränderungen der Aktie einen starken Anstieg oder Abstieg der Momentumlinie hervorrufen können. Durch die Glättung des RSI wird dieser Ausriss auf einen konstanten Wert zwischen 0 und 100 gebracht. Weiterhin können mit dem Relativen stärke Index zwei Wertpapiere oder Branchen miteinander verglichen Werten. Es wird mit den Wertpapieren oder Branchen so gesehenen ein objektiver Benchmark durchgeführt. Die Formel hierzu lautet:
Ein Wert über 70 wird als überkauft angesehen, ein Wert unter 30 wird einer überverkauften Marktsituation angesehen. Die Abbildung 3.7 zeigt ein Beispiel von einem relativen stärke Index[95].
Aroon Oscillator
Der Aroon Oscillator wurde im Jahr 1995 definiert und wird dazu verwendet, um auf erste Anzeichen einer Trendwende reagieren zu können. Es wird davon ausgegangen, dass bei Aufwärtstrends regelmäßig neue Hochpunkte und bei Abwärtstrends neue Tiefpunkte erreicht werden. Aufgrund dieser Annahme wird die Anzahl der Perioden zwischen beiden letzten Hoch- und Tiefpunkten festgehalten, um anhand dessen, eine Vorhersage einer möglichen Trendwende erstellen zu können. „Aroon-Up“ und „Arron-Down“ sind maßgebliche Bestandteile des Aroon Oscillator. Die vergangenen Perioden die seit dem letzten Hoch auftraten werden mit „Aroon-Up“ und die vergangenen seit dem letzten Tief mit Aroon-Down gezählt[96]. Mit der folgenden Formel kann der Aroon Oscillator bestimmt werden:
3.2.3 Metadaten
Bei der Ermittlung der Metadaten werden exogene Größen betrachtet die sich nicht direkt auf das zu analysierende Unternehmen zurückführen lassen bzw. nicht zu dessen deskriptiven Merkmalen gehört. Die Entwicklung von Währungspaaren gehört beispielsweise zu diesen Metadaten. Steigt oder sinkt eine Währung im Kurs, dann hat dies Auswirkungen auf Unternehmen die ein Großteil Ihres Umsatzes in der entsprechenden Währung verzeichnen. Maßgeblichen Einfluss hat die Änderung des Wertes einer Währung auf die Importpreise bzw. dessen Exportumsatzes eines international arbeitenden Unternehmens. Unternehmen wie z.B. „The Coca Cola Company“ die einen Großteil ihres Umsatzes im Ausland verzeichnen, kann die Entwicklung zwischen den Währungen EUR und US Dollar, Einfluss auf das Unternehmensergebnis und somit auch auf den Aktienkurs bewirken. Neben Währungsdifferenzen haben auch Rohstoffpreise wie z.B. Ölpreise Einfluss auf die Preis- und Umsatzentwicklung auf Unternehmen. Vor allem produzierende Unternehmen sind hiervon betroffen. Die Rohstoffpreise nehmen Einfluss auf die Produktionskosten und diese müssen entweder durch einen geringeren Gewinn oder eine Preisanpassung dem Kunden gegenüber angepasst werden. Auch der Goldpreis kann auf den Wert einer Aktie Einfluss nehmen, selbst wenn das Unternehmen kein Gold verarbeitet oder damit handelt. Anhand des Goldpreises können Inflationserwartungen oder das Vertauen der Anleger abgeleitet werden. Die vorhin genannten Metadaten müssen für das Machine Learning als Merkmal in die Merkmalskategorie „Metadaten“ hinzugefügt und beachtet werden[98].
3.2.4 Skalierung
Durch die Skalierung können die ermittelten Werte in ein einheitliches Intervall überführt werden. Das Intervall kann Größen von -100 bis +100 Einheiten annehmen. Wichtig ist nur, dass alle Werte skaliert werden damit die relative Größe zueinander nicht verändert wird. Im Gegensatz zu dem RSI-Verfahren werden einzelne Ausreißer nicht eliminiert, es wird lediglich die Größe der einzelnen Werte angepasst. Die angepassten Werte können anschließend als Input für einzelne Klassifikatoren verwendet werden[99]. Weiterhin können mit der Univariate Skalierung einzelne Ausprägungen mit der Gesamteinheit verglichen werden. In dem bereits genannten Beispiel mit der Kreditzusage, könnte mittels Skalierung das Verhältnis zwischen „guten“ und „schlechten“ Kunden veranschaulicht werden. Um das Ergebnis zu erhalten, müssen diese in Relation gesetzt werden. Dabei ist Ausprägung bzw. die Wahrscheinlichkeit, das die einzelnen Merkmale zu den guten oder schlechten Kunden gehören, zu beachten. Um den Skalenwert für die „guten“ Kunden zu erhalten, muss die Anzahl der Merkmale der guten, durch die Anzahl der Merkmale der guten und schlechten Kunden dividiert werden[100].
3.3 Merkmalsselektion
Die primäre Aufgabe der Merkmalsselektion ist es ein gewisses Gleichgewicht zwischen dem Bestand inkrementeller Merkmale und einer Steigerung der Effizienz beim Verarbeiten der Trainingsdaten durch das Entfernen redundanter Merkmale herzustellen. Aufgrund der hohen Zufallswahrscheinlichkeit sowie der nicht linearen Beschaffenheit der finanzmarktspezifischen Daten gestaltet es sich überaus schwierig eine effiziente Weise der Merkmalsselektion durchzuführen. Innerhalb des Feldversuchs nach Thom wurden zum einen die Leistung von korrelations- und regressionsbasierter Filtermethoden sowie wrapperbasierte Selektionsmethoden geprüft. Bei einem Wrapper handelt es sich um ein Programm zur inhaltlichen Extraktion von Informationen. Wrapper werden beispielsweise dazu verwendet, um relevante Informationen wie Preis oder Geschwindigkeit eines Notebooks aus Angebotsseiten zu extrahieren. Diese werden anschließend dazu verwendet, um Angebote vergleichen zu können. Bei einem Lernproblem handelt es sich um eine Regression, wenn es sich bei y um eine Zahl wie z.B. das morgige Wetter handelt. In diesem Fall ist y das positive Ergebnis einer Hypothese im Bezug auf die Vorhersage neuer implementierter Beispieldaten. Realistisch betrachtet sucht man bei einem Regressionsproblem nur nach einem Erwartungs- bzw. Durchschnittswert, da die Wahrscheinlichkeit, den exakten Wert für y zu finden sich im Bereich 0 bewegt. Innerhalb der korrelations- und regressionsbasierten Filtermethoden nach Sperman oder Pearson wurde folgendes festgestellt: »Durch diese Filtermethoden wurde bei der Selektion mehr inkrementelle Information eliminiert als gewünscht, da deren Anwendung die Klassifikationsgüte verschlechterte«[101]. Im Gegensatz zu den regressionsbasierten Filtermethoden konnten die wrapperbasierten Selektionsmethoden wie z.B. die „Floating“ oder „Forward“ Suchmethode auf der Basis einer k-Nearest-Neighbor Klassifkation neue verwertbare Untermengen von Merkmalen ermitteln und selektieren. Das Ergebnis der Klassifikation konnte jedoch mit diesen zusätzlichen Merkmalen nicht verbessert werden, sondern lediglich innerhalb eines konstanten Bereichs gehalten werden. Das Verhältnis der erhöhten Rechenzeit steht somit in keinem positiven Zusammenhang mit der Trainings- und Klassifikationszeit. Aufgrund dieser Tatsachen ist in den nächsten Analyseprozessen auf die Verwendung von Filtern und Wrappern verzichtet worden[102].
3.4 Einteilung der Objekte in Klassen
Die Grundannahme bei der Klassifizierung von Objekten ist die Unterscheidung der studierten Objekte in steigende und fallende Kurse. Desweiteren gilt die Grundannahme das steigende und fallende Kurse in der gleichen Häufigkeit existieren. Diese Annahmen sind dahingehend riskant, das hierdurch die Möglichkeit existiert, das tatsächliche Kursbewegungen nicht berücksichtigt werden. Alle Kursrückgänge werden der Klasse Null zugewiesen, während alle ansteigenden Kursbewegungen der Klasse Eins angehören. Diese Zuordnung behält Gültigkeit, unabhängig von der Höhe der Kursänderung. Dadurch sollen Kursveränderungen von 0,0001% berücksichtigt werden. Die Realveränderung ist in derlei Fällen so niedrig, dass diese zu vernachlässigen ist und in der Praxis als „unverändert“ angesehen wird. Um diese Minimalveränderungen abzufangen, wird eine dritte Klasse verwendet. Aufgrund der Einführung einer dritten Klasse minimiert sich die Anzahl der zugeordneten Objekte und erhöht die Komplexität des Klassifikationsverfahrens. Eine „vertikale“ Abgrenzung des Kursverlaufes wird dadurch ermöglicht, dass alle Kursänderungen welche unterhalb von 10% einer definierten Standardabweichung stattfinden, der dritten Klasse zugeordnet werden. Es ist irrelevant, ob besagte minimale Kursabweichung positiv oder negativ definiert sind. Diese Abgrenzung wird als bewertungsfreie Zone definiert[103].
Nach Implementierung dieses Verfahrens kann festgestellt werden, dass dadurch nicht die Klassifikationsqualität angehoben wird. Die Qualität der Klassifikation wird erhöht, sobald der Klassifikationszeitpunkt auf den Periodenhöchstkurs einer Betrachtungsperiode definiert wird. Begründet wird dies durch den Umstand, dass der Periodenhöchstkurs ein Zeitraum mit tatsächlicher Aufwärtsbewegung ist. Der Periodenhöchstkurs wird naturgemäß vor dem Ende der Betrachtungsperiode erreicht. Der Periodenhöchstkurs ist mandatorisch sowohl zeitlich als auch Wertetechnisch zu definieren. Hierfür wird auch die Periodendauer definiert. Es werden in der Praxis 15-Minuten-Perioden studiert. Liegt der Kurshöchstwert innerhalb der definierten Periodendauer über 0,15% vom Periodenschlussstand ist dies als Periodenhöchstwert definiert. Bewegungen unterhalb der definierten 0,15% werden nicht berücksichtigt und der Klasse Null zugeordnet[105].
Börsendaten unterliegen naturgemäßer Unsicherheiten und Zufälligkeiten. In Verbindung mit der binären Auswahlsweise der Klassifizierung, ist es denkbar, das auch sehr kleine Kursänderungen als Empfehlung interpretiert werden, um Aktien abzustoßen oder zu kaufen. Eine fehlerhafte Klassifizierung in Klasse Null, würde keine Handlung initiieren, entgegen einer fehlerhaften Klassifizierung in Klasse Eins. Daraus ergibt sich, das Primär die Anzahl der korrekten Klassifizierungen der klasse Eins im relativen Vergleich zu den inkorrekten Klassifizierungen der klasse Eins zu maximieren sind. Es ist also nachrangig die Gesamtheit der Fehlklassifizierung zu minimieren. Bei der Unterteilung in die Klassen Null und Eins, werden beide Prioritär identisch behandelt, was erfordert, das eine neue Priorisierung erfolgt. Die Priorisierung wird durch die Anpassung der Grenzwerte erreicht. Der Grenzwert für die Klassifizierung in Klasse Eins wird angehoben, woraus folgt, das die Anzahl der Objekte in Klasse Eins sich minimiert. Vice versa maximiert sich die Anzahl der Objekte in Klasse Null. Mandatorisch werden Objekte die Tatsächlich eine positive Kursänderung beschreiben, der Klasse Null zugeordnet, da die Kursänderung trotz positiver Tendenz zu niedrig ist. In der Gesamtheit wird die Aussagekraft der Klasse Eins ungeachtet dessen erhöht[106].
3.5 Klassifikation
Ziel der Klassifikation ist es, nach wiederkehrenden Merkmalmustern zu suchen, um auf neue Situation besser reagieren zu können. Es wird davon ausgegangen, dass es eine Menge von Objekten gibt, die jeweils einer Klasse zugeordnet werden können. Bei der Klassifikation wird versucht einen Klassifikator zu erstellen, der neue bzw. unbekannte Objekte der richtigen Klasse zuweist[108]. Bezogen auf eine Aktienkursprognose wird versucht durch die Verwendung von Merkmalmustern den Kursverlauf besser zu charakterisieren. Dr. Patrick René Thom konnte im Rahmen seiner Arbeit 331 Merkmale generieren die er in den Kursverlauf charakterisieren musste. Die einzelnen Merkmale wurden anschließend in Fünf verschiedene Featuresubsets unterteilt:
Untergruppe | Kategoriebezeichnung | Anzahl Merkmale |
---|---|---|
Subset A | Chartdescription | 110 |
Subset B | Indikatoren und Transformationen | 63 |
Subset C | Erste Ableitung Indikatoren und Transformationen | 58 |
Subset D | Zweite Ableitung Indikatoren und Transformationen | 58 |
Subset E | Metadaten | 58 |
Gesamtzahl Merkmale | 331 |
Je Feature-Subset wurden 16000 Objekte für das Training der Klassifikation verwendet. Für Test und Validierungsprozesse wurden weitere 10000 Objekte vorbehalten. Dabei wurden die Zeitlich ältesten Daten für für das Training und die jüngsten Daten für die Validierung der Klassifikation verwendet. Um die höchstmögliche Stabilität der Klassifikation durch neuronale zu gewährleisten, wird ein Rastersuchverfahren durchgeführt. Zu diesem Zweck unterteilt Thom den Trainingsanteil des Feature-Subsets in zwei zeitlich zusammenhängende Datensätze. Der erste Teil (laut Thom ca. 75%) werden zum Testen verwendet, derweil dient der zweite Teil zur Überprüfung und Anpassung der Parameter und wird von ihm als „Tuningset“ betitelt. Um unter Verwendung des Tuningsets die jeweilige Klassifikationsgüte der trainierten neuronalen Netze zu überprüfen, wurden diese in acht weitere kleinere Datensätze zergliedert. Um die Zuverlässigkeit und Beständigkeit der neuronalen Netze zu bewerten, werden sowohl der erwartete Ergebniswert, als auch die Streuung des Erwartungswertes über die acht Teile des Tuningsets zum Vergleich herangezogen. Thom verwendet für die Erstellung eines Rankings die Fitnessfunktion.[110] Das neuronale Netz welches den höchsten Fitnesswert ɸ aufweist, eignet sich für den Ansatz des Machine-Learning.[111] Thom erkannte, dass die Kombination mehrere Klassifikatoren zuverlässiger urteilt als einzelne Klassifikatoren. Aus diesem Grund setzte er eine Kombination von Klassifikatoren ein, die laut Studien bei finanzmarktspezifischen Problemen des Machine Learnings gute Ergebnisse erzielen. neuronale Netzte, Support Vektor Maschinen und AdaBoost verwendete er unter anderem für die Klassifikation in seiner Arbeit.[112] Wird ein Klassifikator mehrmals angepasst, um die Klassifikationsgüte zu verbessern, desto unwahrscheinlicher wird es, dass bei der Klassifikation unbekannter Objekte das Ergebnis reproduzierbar ist. Durch eine Validierung des Klassifikationsalgorithmus auf die ungesehenen Daten, kann eine Erkenntnis über dessen Generalisierungsfähigkeit gewonnen werden. Weiterhin ist die Wahl der Methodik für die Datenauswertung sehr wichtig. Neuronale Netze bieten den Vorteil, nonlineare Zusammenhänge gut erkennen zu können. Allerdings besteht bei neuronalen Netzen eine höhere Gefahr des Overfitting bzw. Underfitting. Bei einer zu großen Anzahl der Neuronen bezogen auf die einzelnen Layer, ist es möglich das der Overfitting-Effekt eintritt und die Generalisierungsfähigkeit auf ungesehene Daten gehemmt wird. Aus diesem Grund entsteht ein Zielkonflikt zwischen Adaption und Generalisierungsfähigkeit des Neuronalen Netzes. Im Gegensatz zu den neuronalen Netzen ist die Erstellung von Support Vektor Maschinen weniger von der Wahl der Parameter abhängig. Nur der Parameter zur Fehlergewichtungskonstante und teilweise der Bandbreitenfaktor ist laut Thom zu optimieren.[113]
3.6 Ergebnisse
Im Folgenden wird auf die Ergebnisse, die durch das Machine Learning im Bezug auf Kapitalmärkten gewonnen wurden, weiter eingegangen. In diesem Kapitel werden die Resultate von Dr. René Thom bzgl. der Eignung verschiedener Klassifikatoren analysiert.
Thom verwendete für seine Analyse des Aktienmarktes jeweils fünf verschiedene Klassifikatoren für die selbe Anzahl an Merkmalkategorien, die zu insgesamt 31 Instrumenten trainiert wurden. Seine Gesamtanzahl an Klassifikatoren betrug demnach 775.[114] »Zu jeder einzelnen Kombination eines trainierten Klassifikators und einer Merkmalkategorie (A-E) bestehen jeweils acht Ergebnisse durch Unterteilung des Testdatensatzes in Unterdatensätze. Durch diese Unterteilung sind insgesamt 775*8=6200 Testvorgänge durchgeführt worden«[115] Um den Klassifikationserfolg und Stabilität bestimmen zu können, wird eine statische Größe zu jeder Klassifikator-Merkmalkategorie-Kombination ermittelt. Dazu versuchte Thom die Wahrscheinlichkeit einer richtigen Klassifizierung eines Objektes in Klasse Eins zu maximieren. Mit Unsicherheit behaftete Objekte sollten aus diesem Grund eher Klasse Null zugeordnet werden.[116] »Der positive prädikative Wert wird alsdann zur a priori 1-Klssenwahrscheinlichkeit (Wapr) ins Verhältnis gesetzt, indem mit Delta (∆) die Differenz dieser Größen errechnet wird.«[117] Über der Differenz aus positiv prädiktivem Wert und Wapr, wurde der Mittelwert „µ∆“ durch Thom bestimmt. Weiterhin wurde auch die Standardabweichung (ó∆) bestimmt, um die Stabilität eines Klassifikationsalgorithmus bestimmen zu können. Eine geringe Streuung steht dabei im Zeitablauf für ein stabiles Ergebnis. Der Mittelwert und die Streuung der Deltawerte wurde durch Thom in den Fitnesswert ɸ miteinbezogen. Als Resultat steigt der Fitnesswert mit steigendem Mittelwert und fallender Streuung der Deltawerte. Laut Thom besagt ein Fitnesswert von ≤ 1, das der Klassifikationsalgorithmus keinen Vorteil über die naive Allokation aller Objekte in Klasse Eins bietet. Thom betrachtete im weiteren Verlauf die Mittelwerte und Standardabweichungen als Klassifikationsfehler (µKF ; óKF). Durch die Klassifikationsfehler wird der Anteil der insgesamt fehlerhaft zugeordneten Objekte wiedergegeben. Mit der Sensitivität gibt Thom wieder, welcher Anteil der Klasse Eins angehörenden Objekte korrekterweise der Klasse Eins zugeordnet wurden. Besitzt µ∆ bei geringer Sensitivität einen hohen Wert, dann deutet dies darauf hin, das nur wenige Objekte der Klasse Eins zugeordnet werden konnten. Mit der Spezifität gibt Thom den Anteil der korrekterweise der Klasse Null zugeordneten Objekte wieder. Die Spezifität wird in seiner Arbeit mit µSP und mit óSP angegeben[118]. Die folgende Abbildung zeigt einen Überblick über die durch Thom verwenden Klassifikatoren und deren Ergebnisse.
Bezeichnung | Beschreibung |
---|---|
Wapr | A priori 1-Klassenwahrscheinlichkeit |
µKF | Mittelwert der Klassifikationsfehler |
óKF | Standardabweichung der Klassifikationsfehler |
µKF | Mittelwert der Klassifikationsfehler |
µSE | Mittelwert der Sensitivitätswerte |
óSE | Standardabweichung der Sensitivitätswerte |
µSP | Mittelwert der Spezifitätswerte |
óSP | Standardabweichung der Spezifitätswerte |
µMW | Mittelwert der gemittelten Sensitivitäts- und Spezifitätswerte |
óMW | Standardabweichung der gemittelten Sensitivitäts- und Spezifitätswerte |
∆min | Minimum der Differenzen aus positivem prädiktiven Wert und Wapr |
∆max | Maximum der Differenzen aus positivem prädiktiven Wert und Wapr |
ó∆ | Standardabw. der Differenzen aus positivem prädikativen Wert und Wapr |
µ∆ | Mittelwert der Differenzen aus positivem prädikativen Wert und Wapr |
ɸ | Fitnesswert nach Gleichung 4.51 |
Weiterhin überprüfte Thom, ob eine vorhersage kurzfristiger Aktienkursrenditen mit den vorgestellten Methoden auch wirtschaftlich sind. Neben dem Wertverlust einer Aktie, müssen auch die Kosten für das Handelssystem und die eigentliche Berechnung berücksichtigt werden. Es wird also überprüft, ob eine Überrendite bzgl. der Investitionen erzielt werden kann. Um dies zu ermitteln, legte Thom folgende Randbedingungen fest: Das Klassifikationsziel bestand darin, einen neuen Höchstkurs von mindestens 0,15% gegenüber dem Schlusskurs der Vorperiode erzielen zu können. Wie in Kapitel 3.2 „Erstellung lernfähiger Merkmale“ bereits geschrieben, verwendete er dafür ein relativ kleines Zeitintervall von 15 Minuten. Um das Risiko größerer Verluste zu minimieren, wurde eine Verlustschwelle von 0,3% definiert. Sobald diese Schwelle überschritten wurde, wird die bestehende Position geschlossen und ein Verlust akzeptiert. Bei einem neutralen Ergebnis wird die Position am Ende der Periode geschlossen. Für seinen Versuch verwendete Thom 31 Instrumente und stellte diese der Entwicklung des Dow Jones Industrial Average gegenüber. In dieser Arbeit wird nicht weiter auf die einzelnen 31 Instrumente eingegangen, sondern das kumulierte Ergebnis betrachtet.[121]»Durchschnittlich konnten 13% Gewinn mit dem Handelssystem erzielt werden, während die Direktinvestition in die Instrumente im Betrachtungszeitraum im Mittel 33% Verluste brachte.«[122] Einige Aktien arbeiteten im Handelssystem unprofitabel, obwohl mit diesen im Rahmen der Meta-Klassifikation gute und teils, sogar sehr gute Ergebnisse aufwiesen.[123] »Spätestens an dieser Stelle wird deutlich, dass positive Klassifikationsergebnisse allein keine erfolgreiche, praktische Umsetzung der Vorgaben der künstlichen Intelligenz garantieren.«[124] Im Bezug auf seine Ergebnisse hält Thom folgendes fest: »Es ist zu beachten, dass bei der praktischen Umsetzung des Handelssystems Gebühren anfallen, die in dieser Betrachtung vernachlässigt worden sind. Weiterhin muss berücksichtigt werden, dass der theoretische Ausführungskurs im „Live-Trading“ nicht immer erreichbar ist. Hierdurch fiele der tatsächliche Gewinn in der praktischen Umsetzung wesentlich geringer aus. Dennoch unterstützt die theoretische Profitabilität dieses Handelssystems die These, dass verhersagbare Komponenten der Aktienkursentwicklung existieren, und dass diese durch maschinelles Lernen aufgedeckt werden können.«[125]
4 Schlussbetrachtung
Im Verlauf dieser Arbeit konnte durch die kritische Untersuchung des Einsatzes verschiedener Lernverfahren bei der Analyse von finanzmarktspezifischen Daten aufgezeigt werden, dass sich maschinelle Lernverfahren nur bedingt für die erfolgreiche Prognose von Aktienkursen eignen. Die Betrachtung der Ergebnisse verdeutlicht, dass es Teilbereiche des Aktienmarktes gibt, die mit Hilfe des Machine Learning analysiert und prognostiziert werden können. Dennoch war und ist es nicht möglich, mit den vorhandenen Kombinationen aus verschiedenen Klassifikatoren und Merkmalen eine vollständige Prognose eines Aktienkurses vorhersagen zu können.
Zudem konnte festgestellt werden, dass bei der Analyse von Kapitalmärkten, insbesondere dem Aktienmarkt, eine Vielzahl von Faktoren berücksichtigt werden müssen, um eine erfolgreiche Prognostizierung von Aktienkursen ermöglichen zu können. Im Hinblick auf das exponentiell steigende Datenaufkommen ist es ein elementarer Faktor die Qualität der verwendeten Daten zu prüfen, da lediglich aufbereitete und gesäuberte Datensätze für ein Klassifikationsverfahren positive Ergebnisse liefern und somit den Erfolgsfaktor im Hinblick auf die Prognose stark beeinflussen. Bezüglich der Prägnanz der zuvor genannten Datenprämisse ist es ausschlaggebend, dass bekannte und absehbare exogene Faktoren berücksichtigt werden und in die Analyse der Datenbasis mit eingebunden werden. In dieser Arbeit wurde zudem nachgewiesen, dass direkte sowie indirekte Merkmale eine elementare Rolle im Bezug auf die Aussagekraft für das Betrachtungsobjekt spielen. Das Ziel war es, eine hohe Generalisierung der Merkmale zu erreichen, um im Nachhinein diese für weitere Berechnungen sowie Vergleiche nutzen zu können. Bei einer anschließenden Klassifikation mussten die Daten ausschließlich aufgeteilt werden, um diese auf Grund von Prognostizierbarkeit, Kontrollierbarkeit und Anpassbarkeit verwenden zu können.
Bei den Analysetechniken wurden zwei verschiedene Herangehensweise untersucht. Hierbei wurde zwischen der Fundamentalanalyse und der technischen Analyse differenziert. Die Fundamentalanalyse erwies sich im Gegensatz zur technischen Analyse als förderlich, falls der „innere Wert“ einer Aktie herangezogen werden sollte. Durch den Vergleich zwischen inneren und tatsächlichen Wert der Aktie, ergibt sich eine weitere Möglichkeit, um die Kauf- oder Verkaufsentscheidung bewerten zu können. Prinzipiell dient die Fundamentalanalyse der Bewertung eines Unternehmens. Neben der Fundamentalanalyse wurden ebenfalls die Hintergründe bzw. Funktionen der technischen Analyse untersucht. Die Technische Analyse versucht unter anderem die Kurse in unterschiedliche Trends einzuordnen, um anhand dessen, einen Aufwärts-, Abwärts oder Seitwärtstrend herausfiltern zu können. Für die Durchführung dieser Analysetechnik wurden verschiedene Technische Indikatoren auf dessen Vor- und Nachteile bzw. Möglichkeiten untersucht. Neben der verwendeten Analysetechnik sowie der Säuberung der Daten ist es ein bedeutender Faktor, gleicherweise die Quellen und Auswertmethodik zu priorisieren. Während der Entwicklung dieser Arbeit wurden mehrere Methoden der künstlichen Intelligenz dargestellt und miteinander verglichen. Exemplarisch wurde dabei auf die Verwendung neuronaler Netze, sowie deren Gewichtungseigenschaften und Methoden eingegangen. Beispielsweise wurde dabei die Erkenntnis getroffen, dass schon eine minimale Veränderung hinsichtlich der Gewichtung eines Entscheidungsträgers maßgeblichen Einfluss auf die getroffene Entscheidung hat.
Um es den verschiedenen Methoden der KI zu ermöglichen, Daten maschinell auswerten zu können, müssen diese neben einer Aufbereitung auch in ein maschinenlesbares Format übertragen werden. Mit einem Candlestickmuster können Kursverläufe, also Höchst-, Tiefst-, Eröffnungs- sowie Schlusskurs für die zu lernende Maschine mathematisch dargestellt werden. Weitere Indikatoren, die sich in einer Kombination als erfolgreich herausstellten, waren der Momentum- sowie RSI-Indikator. Diese ermöglichten es, einzelne Ausreißer, die durch einen plötzlichen An- oder Abstieg des Aktienwertes hervorgerufen wurden, zu glätten. Nach einer erfolgreichen Skalierung sowie Selektion der vorhandenen Merkmale wurde die Klassifikation der Objekte durchgeführt. Ziel dieser war es, nach wiederkehrenden Merkmalsmustern zu suchen, um auf neue Situationen während der Trainingsphasen besser reagieren zu können. Diese Merkmalsmuster wurden anschließend fünf verschiedenen Subsets zugeordnet. Insgesamt wurden während des kompletten Feldversuchs 331 Merkmale erzeugt und in die Analyse mit einbezogen.
Abschließend lässt sich feststellen, dass sich der wissenschaftliche Diskurs um die Einsatzmöglichkeiten des Machine Learnings kontinuierlich erweitert. Dies ist zum einen bedingt durch die fortschreitende Entwicklung in Technik und Wissenschaft, welche verschiedene Abläufe zunehmend komplexer und abstrakter werden lassen. Weltweit renommierte Unternehmen investieren enorme Kapazitäten in den Bereich des Machine Learning, um Prozesse mit steigender Komplexität durch Maschinen automatisiert abbilden zu können.
Durch diese Kombination aus, steigenden Ansprüchen sowie Kapazitäten, ergibt sich das folgende Szenario im Hinblick auf zukünftige Analysen: Ermöglicht das Machine Learning zukünftig eine vollständige Transparenz des Finanzmarktes?
5 Fußnoten
- ↑ 1,0 1,1 Russel/Norvig (2012), S. 22
- ↑ Lackes/Siepermann (o.J.)
- ↑ Schaber beschreibt dieses Fallbeispiel in ähnlicher Form in seinem Beitrag zum Science Slam Loeben (2014), es wurde jedoch durch den Autor dem Kontext dieser Arbeit angepasst.
- ↑ Vgl. Thom (2012), S. 12
- ↑ S. 283
- ↑ Vgl. Keller (2000), S. 283; vgl. Thom (2012), S. 30
- ↑ Vgl. Keller (2000), S. 283
- ↑ Vgl. Russel/Norvig (2012), S. 811
- ↑ ebd., S. 811
- ↑ Vgl. Rojas (1993), S. 3; Vgl. Thom (2012), S. 48
- ↑ Vgl. Thom (2012), S. 48f; Kinnebrock (1994), S. 14
- ↑ Vgl. McCulloch/Pitts (1943)
- ↑ Russel/Norvig (2012), S. 846
- ↑ Vgl. Thom (2012), S. 59
- ↑ ebd., S. 59; Kotsiantis & Pintelas (2005), S. 53 bis 59
- ↑ Linke (2003)
- ↑ Vgl. Thom (2012), S. 60
- ↑ Vgl. Russel/Norvig (2012), S. 857
- ↑ Thom (2012), S. 62
- ↑ Vgl. ebd., S. 61 f.
- ↑ ebd., S. 11
- ↑ ebd., S. 11
- ↑ Vgl. ebd., S. 11
- ↑ Vgl. Sperber (2014), S. 1 f.
- ↑ Vgl. ebd., S. 1 f.
- ↑ ebd., S. 2
- ↑ ebd., S. 69
- ↑ ebd., S. 70
- ↑ Vgl. ebd., S. 70; Pollert, Kirchner, Polzin (2013), S. 160
- ↑ Vgl. Sperber (2014), S. 72; Vgl. Heldt (o. J.)
- ↑ Sperber (2014), S. 72
- ↑ Vgl. ebd., S. 72
- ↑ Vgl. ebd., S. 73
- ↑ ebd., S. 73
- ↑ ebd., S. 11
- ↑ Vgl. ebd., S. 11; Pollert, Kirchner, Polzin (2013), S. 440
- ↑ Vgl. Sperber (2014), S. 11
- ↑ Vgl. Budzinkski,Jasper,Michler,W. Breuer,C.Breuer (o.J.)
- ↑ Vgl. Sperber (2014), S. 18 f.
- ↑ ebd., S. 18
- ↑ Vgl. ebd., S. 5
- ↑ Vgl. W.Breuer/C.Breuer (o.J.)
- ↑ Sperber (2014), S. 5
- ↑ Vgl. Scharkow (2011), S. 111
- ↑ ebd., S. 113
- ↑ Vgl. Thom (2012), S. 14
- ↑ ebd., S. 23
- ↑ ebd., S. 26
- ↑ ebd., S. 27
- ↑ ebd., S. 73
- ↑ ebd., S. 73
- ↑ Vgl. Ehrhardt (2006), S. 3 bis 6
- ↑ ebd., S. 7
- ↑ Vgl. ebd., S. 8
- ↑ ebd., S. 9
- ↑ Vgl. ebd., S. 8 u. 10
- ↑ Vgl. Koch (2010), S. 3
- ↑ Murphy (2003), S. 65
- ↑ Vgl. Ehrhardt (2006), S. 22
- ↑ Vgl. Murphy (2003), S. 63
- ↑ Vgl. Schwager (2013), S. 46
- ↑ ebd., S. 67
- ↑ Vgl. ebd., S. 68
- ↑ Vgl. ebd., S. 67
- ↑ Vgl. ebd., S. 68
- ↑ ebd., S. 69
- ↑ Vgl. Brock (2013), S. 187
- ↑ Vgl. Murphy (2003), S. 76
- ↑ ebd., S. 71
- ↑ ebd., S. 75
- ↑ Vgl. Ehrhardt (2006), S. 24
- ↑ Vgl. Scherer (2003), S. 3
- ↑ Vgl. Heuer (1997), S. 7
- ↑ Vgl. Crone (2010), S. 168; Vgl. Rey/Wender (2010), S. 15
- ↑ Vgl. Rey/Wender (2010), S. 15
- ↑ Vgl. ebd., S. 17
- ↑ ebd., S. 15 f.
- ↑ Vgl. ebd., S. 25
- ↑ Vgl. Scherer (2003), S. 4
- ↑ Vgl. ebd., S. 25
- ↑ Vgl. Nakhaeizadeh (1998), S. 6 u. 10; Vgl. Nakhaeizadeh (1998), S. 20 u. 21
- ↑ Vgl. Swingler (1996), S. 27 f.
- ↑ Vgl. Gansser/Krol (2015), S. 338
- ↑ Thom (2012), S. 83
- ↑ Vgl. Thom (2012), S. 81; Vgl. Park/Irwin (2004), S. 1 bis 18; Schulmeister (2008), S. 1 bis 25
- ↑ Vgl. Thom (2012), S. 81
- ↑ Vgl. ebd., S. 82
- ↑ Vgl. ebd., S. 82 f.
- ↑ Vgl. Thomsett (2013), S. 2 ff.
- ↑ Vgl. Gebert/Hüsgen (1995), S. 10 f.; Vgl. Nison (2013), S. 42
- ↑ Vgl. Thom (2012), S. 85; Vgl. Gebert/Hüsgen (1995), S. 9 ff.; Vgl. Nison (2013), S. 42
- ↑ Vgl. Murphy (2003), S. 227 f.
- ↑ Murphy (2003), S. 234
- ↑ ebd., S. 242
- ↑ Vgl. ebd., S. 242
- ↑ Vgl. Thom (2012), S. 104; Vgl. Staar (2011), S. 168
- ↑ Vgl. Thom (2012), S. 104
- ↑ Vgl. ebd., S. 115 f.
- ↑ Vgl. Nakhaeizadeh (1998), S. 11
- ↑ Vgl. ebd., S. 103 ff.
- ↑ ebd., S. 126
- ↑ Vgl. Thom (2012), S. 125 f.; Vgl. Russel/Norvig (2012), S. 549 u. 812
- ↑ Vgl. Thom (2012), S. 126 f.
- ↑ ebd., S. 127
- ↑ Vgl. ebd., S. 126 f.
- ↑ ebd., S. 128 f.
- ↑ ebd., S. 129
- ↑ Vgl. Nakhaeizadeh (1998), S. 8
- ↑ Thom (2012) S. 131
- ↑ Vgl. ebd., S. 130 bis 133
- ↑ Vgl. ebd., S. 135 f.
- ↑ Vgl. ebd., S. 130 bis 133
- ↑ Vgl. Wiedemann (1999), S. 76 f.; Thom (2012), S. 134 ff.
- ↑ Vgl. Thom (2012), S. 143
- ↑ ebd., S. 143; Vgl. Tabelle 3.2
- ↑ Vgl. ebd., S. 143
- ↑ ebd., S. 143
- ↑ Vgl. ebd., S. 144
- ↑ ebd., S. 145
- ↑ ebd., S. 144 Tabelle 5.1
- ↑ Vgl. ebd., S. 197 f.
- ↑ ebd., S. 198
- ↑ Vgl. ebd., S. 200 f.
- ↑ ebd., S. 200 f.
- ↑ ebd., S. 203
6 Quellen- und Literaturverzeichnis
Verweis | Literatur / Quelle |
---|---|
Thom (2012) | Thom, Rene: Vorhersage kurzfristiger Aktienkursrenditen: Entwicklung eines maschinellen Lernverfahrens, 1. Auflage, JOSEF EUl VERLAG GmbH, Lohmar – Köln 2012 |
Murphy (2003) | Murphy, John J.: Technische Analyse der Finanzmärkte, 2. Auflage, München 2003 |
Scherer (2003) | Scherer, Andreas: Neuronale Netze Grundlagen und Anwendungen, Braunschweig/Wiesbaden 2003 |
Rey/Wender (2010) | Rey, Günter Daniel / Wender, Karl F: Neuronale Netze: Eine Einführung in die Grundlagen, Anwendungen und Datenauswertung, 2. Auflage, 2010 |
Nison (2013) | Nison, Steve: Technische Analyse mit Candlesticks, 6. Auflage, 2013 |
Thomsett (2013) | Thomsett, Michael C.: Visual Guide: Chartanalyse mit Candlesticks, 2014 |
Wiedemann (1999) | Wiedemann, Christine: Neuronale Netze und Fuzzy-Logik in der Neuprodukt-Erfolgsfaktorenforschung, 1999 |
Ehrhardt (2006) | Ehrhardt, Marcel: Fundamentalanalyse und technische Analyse der Aktienentwicklung, 09.05.2006, online im Internet: http://www.stendal.hs-magdeburg.de/project/konjunktur/Fiwi/vorlesung/6.Semester/vorlesungsmaterial/T8%20Fundamentalanalyse.pdf (05.06.2016 20:06) |
Schwager (2013) | Schwager, Jack D.: Schwager über Technische Analyse, FinanzBuch Verlag, 2013 |
Brock (2013) | Brock, Jörg: Internationale Anlagestrategie: Rationale Entscheidungen durch technische Analyse, Springer-Verlag, 2013 |
Koch (2010) | Koch, Matthias: Die Fundamentalanalyse zur Bewertung von Aktien, GRIN Verlag, 1. Auflage 2010 |
Nakhaeizadeh (1998) | Gholamreza Nakhaeizadeh: Data Mining Theoretische Aspekte und Anwendungen, Physica-Verlag, 1995 |
Gebert/Hüsgen (1995) | Gebert, Thomas / Hüsgen, Paul: Candlestick-Charttechnik, Börsenbuch-Verlag, 1995 |
Heuer (1997) | Heuer, Jürgen: Neuronale Netze in der Industrie, Gabler Verlag, Deutscher Universitäts-Verlag, Wiesbaden 1997 |
Crone (2010) | Crone, Sven F.: Neuronale Netze zur Prognose und Disposition im Handel, 1. Auflage, Gabler Verlag, Springer Fachmedien Wiesbaden GmbH 2010 |
Staar (2011) | Staar, K.C.: The Fundemental Guide to Getting Started and Succeeding With Your Investments, 2011 |
Scharkow (2011) | Scharkow, Michael: Automatische Inhaltsanalyse und maschinelles Lernen, Dissertation, Universität der Künste Berlin 2011 |
Sperber (2014) | Sperber, Herbert: Finanzmärkte: Eine praxisorientierte Einführung, Schäffer-Poeschel Verlag, Stuttgart 2014 |
Russel/Norvig (2012) | Russel, Stuart / Norvig, Peter: Künstliche Intelligenz: Ein moderner Ansatz, Pearson Deutschland, München 2012 |
Keller (2000) | Keller, Hubert B.: Maschinelle Intelligenz: Grundlagen, Lernverfahren, Bausteine intelligenter Systeme, Friedr. Vieweg & Sohn Verlagsgesellschaft mbH, Braunschweig/Wiesbaden 2000 |
Rojas (1993) | Rojas, Raul: Theorie der neuronalen Netze: Eine systematische Einführung, Springer-Verlag, Berlin Heidelberg 1993 |
Swingler (1996) | Swingler, Kevin: Applying Neural Networks: A Practical Guide, Morgan Kaufmann Publishers In, 1996 |
Gansser/Krol (2015) | Gansser, Oliver / Krol, Bianca: Markt- und Absatzprognosen Modelle – Methoden – Anwendung, Springer Gabler Verlag, Wiesbaden 2015, FOM Edition |
Schulmeister (2008) | Schulmeister, Stephan: Profitability of Technical Stock Trading: Has it Moved from Daily to Intraday Data? , Austrian Institute of Economic Research, Vienna 2008 |
Park/Irwin (2004) | Cheol-Ho Park/Scott H. Irwin: The Profitability of Technical Trading Rules in US Futures Markets: A Data Snooping Free Test, Austrian Institute of Economic Research, St. Louis Missouri 2004 |
Kinnebrock (1994) | Kinnebrock, Werner: Neuronale Netze: Grundlagen, Anwendungen, Beispiele, 2. Auflage, R. Oldenbourg Verlag, München Wien 1994 |
Lackes/Siepermann (o.J.) | Lackes, Richard / Spiermann, Markus; Springer Gabler Verlag (Herausgeber): Gabler Wirtschaftslexikon, Stichwort: maschinelles Lernen, online im Internet: http://wirtschaftslexikon.gabler.de/Archiv/77372/maschinelles-lernen-v8.html (02.06.2016 21:12) |
Heldt (o. J.) | Heldt, Cordula; Springer Gabler Verlag (Herausgeber): Gabler Wirtschaftslexikon, Stichwort: Investment Banking, online im Internet: http://wirtschaftslexikon.gabler.de/Archiv/5016/investment-banking-v9.html (02.06.2016 21:21) |
Budzinkski,Jasper,Michler,W. Breuer,C.Breuer (o.J.) | Budzinski, Oliver;Jasper, Jörg; Michler, Albrecht; Breuer, Wolfang; Breuer, Claudia; Springer Gabler Verlag (Herausgeber): Gabler Wirtschaftslexikon, Stichwort: Kapitalmarkt, online im Internet: http://wirtschaftslexikon.gabler.de/Archiv/3612/kapitalmarkt-v7.html (02.06.2016 21:23) |
W.Breuer/C.Breuer (o.J.) | Breuer, Wolfgang / Breuer, Claudia; Springer Gabler Verlag (Herausgeber): Gabler Wirtschaftslexikon, Stichwort: Fristentransformation, online im Internet: http://wirtschaftslexikon.gabler.de/Archiv/6260/fristentransformation-v7.html (02.06.2016 21:26) |
Pollert, Kirchner, Polzin (2013) | Pollert, Achim; Kirchner, Bernd; Polzin, Javier Morato: Duden Wirtschaft von A bis Z: Grundlagenwissen für Schule und Studium, Beruf und Alltag, 5. Auflage, Bibliographisches Institut, Berlin 2013 |
McCulloch/Pitts (1943) | McCulloch, Warren S. / Pitts, Walter: A logical calculus of the ideas immanent in nervous activity, in: Bulletin of Mathematical Biophysics, 1943, Ausgabe 5, S. 115-137 |
Linke (2003) | Linke, Andreas: Spam oder nicht Spam?: E-Mail sortieren mit Bayes-Filtern, in: c’t, 2003, Heft 17, S. 150-153 |
Schaber (2014) | Schaber, Felix: Maschinelles Lernen (Science Slam Leoben 2014), 09.01.2015, online im Internet: https://www.youtube.com/watch?v=1uXDI-Nc8QM (05.06.2016 20:16) |
7 Abkürzungsverzeichnis
Abkürzung | Bedeutung |
---|---|
EZB | Europäische Zentralbank |
KI | Künstliche Intelligenz |
RSI | Relative Stärke Index |
KA | Kapitalanbieter |
KN | Kapitalnachfrager |
8 Tabellenverzeichnis
Tabelle Nr. | Quelle |
---|---|
3.1 | Gewichtungsbeispiel angeordneter Neuronen |
3.2 | Aufteilung Featuresubsets |
3.3 | Beschreibung der Klassifikationsvariablen |
9 Abbildungsverzeichnis
Abbildung Nr. | Abbildung |
---|---|
2.1 | Die drei Säulen des Lernens |
2.2 | Modell eines Neurons |
2.3 | Anwendungsgebiete des maschinellen Lernens |
2.4 | Kapitalvermittlung auf Finanzmärkten |
2.5 | Wichtige Akteure des Finanzmarktes |
2.6 | Grundprinzip von Investmentfonds |
2.7 | Emission und Handel von Wertpapieren |
2.8 | Anzahl der Durchgänge n eines Zufallsexperiments |
2.9 | Gegenwart- & Barwertrechnung |
2.10 | PER Berechnung |
2.11 | Verhältnis Global, Branche und Unternehmen |
2.12 | Die drei definierten Trends |
2.13 | Primär- Sekundär- und Tertiärtrend |
2.14 | Darstellung von Unterstützung und Widerstand |
2.15 | Darstellung eines Trendbruchs |
2.16 | Darstellung eines Rollentausches zwischen Widerstand und Unterstützung |
3.1 | Aufbau eines neuronalen Netzes mit Gewichtungsbeispiel |
3.2 | Aufbau eines neuronalen Netzes mit Bias-Neuronen |
3.3 | 2-zu-1-Aktiensplit |
3.4 | Candlestickchart |
3.5 | Vergleich zwischen Linienchart und Candlestickanalyse |
3.6 | Beispiel eines Momentums |
3.7 | RSI Formel |
3.8 | Abbildung der Vertikalen Abgrenzung / der „Grauzone“ |
3.9 | Abbildung der Anhebung der Klassifizierungsgrenze zur Klasse Eins |
3.10 | Vergleich der Klassifikatoren |
Quelle: http://winfwiki.wi-fom.de/index.php/Anwendung_des_Machine_Learning_bei_der_Analyse_von_Kapitalm%C3%A4rkten
Der Inhalt ist verfügbar unter der GNU Free Documentation License 1.2.
Lizenz Aufmacherbild: