Mit der Finanzkrise 2008/9 wurde deutlich, wie fest verankert die Finanzmärkte in der Wirtschaft und Gesellschaft sind. Umso größer wird das Bedürfnis nach Stabilität und Widerstandsfähigkeit dieses Systems. Diese Ausarbeitung will sich der Frage annehmen, mit welchen Maßnahmen sich die erhöhte Krisenanfälligkeit der Finanzmärkte, die durch Hochfrequenzhandel erzeugt wird, einschränken oder gar unterbinden lässt.
Begonnen wird mit einer Einführung in die Thematik Finanzmärkte und Hochfrequenzhandel.
Daraufhin wird als Adressat dieser Expertise Jonathan Hill vorgestellt, der als Kommissar für Finanzangelegenheiten auch der Aufgabe verpflichtet ist, die Stabilität der Märkte zu wahren. Auch wird das konkrete Problem geschildert, dass Hochfrequenzhandel als Katalysator für Marktvolatilitäten und erhöht die Krisenanfälligkeit der Finanzmärkte wirkt. Weiter geht es mit einigen Vor- und Nachteilen, die in der allgemeinen Diskussion genannt werden. Analysiert wird das Problem mittels zweier sozialwissenschaftlicher Theorien, zum einen der Behavioral Finance und zum anderen der klassischen Markteffizienzhypothese. Zusammengesetzt aus dieser Analyse wird die Maßnahme eines Verbotes dieser Handelstechnik vorgeschlagen. Der Ausgangspunkt dieser Expertise ist das Interesse aller Marktakteure, Finanzmärkte stabil zu halten und Krisen(Anfälligkeit) möglichst zu unterbinden. Der Hochfrequenzhandel führt aber genau zum Gegenteil, wie Crashs im Jahre 2010 und 2014 gezeigt haben. Und es stellt sich grundsätzlich die Frage, ob eine Technik, deren volkswirtschaftlicher Nutzen höchst zweifelhaft ist und zusätzlich weitere Nachteile mit sich bringt, überhaupt eine Existenzberechtigung hat.
Inhaltsverzeichnis
1. Einführung
2. Adressat und Problemstellung
3. Was ist Hochfrequenzhandel?
4. Vor- und Nachteile des Hochfrequenzhandels
5. Sozialwissenschaftliche Analyse des Problems
5.1. Verhaltensökonomischer Ansatz
5.2. Theorie der Markteffizienz
6. Welche Maßnahme empfohlen wird
7. Literaturverzeichnis
Executive Summary
Mit der Finanzkrise 2008/9 wurde deutlich, wie fest verankert die Finanzmärkte in der Wirtschaft und Gesellschaft sind. Umso größer wird das Bedürfnis nach Stabilität und Widerstandsfähigkeit dieses Systems. Diese Ausarbeitung will sich der Frage annehmen, mit welchen Maßnahmen sich die erhöhte Krisenanfälligkeit der Finanzmärkte, die durch Hochfrequenzhandel erzeugt wird, einschränken oder gar unterbinden lässt.
Begonnen wird mit einer Einführung in die Thematik Finanzmärkte und Hochfrequenzhandel.
Daraufhin wird als Adressat dieser Expertise Jonathan Hill vorgestellt, der als Kommissar für Finanzangelegenheiten auch der Aufgabe verpflichtet ist, die Stabilität der Märkte zu wahren. Auch wird das konkrete Problem geschildert, dass Hochfrequenzhandel als Katalysator für Marktvolatilitäten und erhöht die Krisenanfälligkeit der Finanzmärkte wirkt. Weiter geht es mit einigen Vor- und Nachteilen, die in der allgemeinen Diskussion genannt werden. Analysiert wird das Problem mittels zweier sozialwissenschaftlicher Theorien, zum einen der Behavioral Finance und zum anderen der klassischen Markteffizienzhypothese. Zusammengesetzt aus dieser Analyse wird die Maßnahme eines Verbotes dieser Handelstechnik vorgeschlagen. Der Ausgangspunkt dieser Expertise ist das Interesse aller Marktakteure, Finanzmärkte stabil zu halten und Krisen(Anfälligkeit) möglichst zu unterbinden. Der Hochfrequenzhandel führt aber genau zum Gegenteil, wie Crashs im Jahre 2010 und 2014 gezeigt haben. Und es stellt sich grundsätzlich die Frage, ob eine Technik, deren volkswirtschaftlicher Nutzen höchst zweifelhaft ist und zusätzlich weitere Nachteile mit sich bringt, überhaupt eine Existenzberechtigung hat.
1) Einführung
Die Finanzmärkte sind ein tragender Teil unserer Wirtschaft. Sie versorgen die Unternehmen und Privatpersonen mit Krediten, damit diese wiederum wichtige Investitionen tätigen. Allerdings hat sich Finanzmarkt seit den 1990er Jahren zunehmend von der Realwirtschaft abgekoppelt und ist durch fortschreitende Technologien zu einem „Big Player“ in der Weltwirtschaft geworden. Das Finanzvolumen, das täglich auf den Finanzmärkten gehandelt wird, übersteigt um ein Vielfaches das der Realwirtschaft. Diese besondere Stellung führt dazu, dass auch der Einfluss der Ereignisse auf die Weltwirtschaft, die von den Finanzmärkten ausgehen, um einiges höherer ist als im Zeitraum vor 1990. Dies zeigte sich vor allem an der Finanzkrise 2007/2008, welche die Weltwirtschaft an den Rand eines Kollapses brachte. Maßgeblich Schuld waren intransparente Finanzderivate, allen voran die Collateralized Debt Obligations (CDO) und Credit Default Swaps (CDS), welche die Banken reihenweise in den Ruin trieb. Hier zeigte sich deutlich, dass die vielfach beschworenen Selbstreinigungskräfte des Marktes versagten. Aber auch in den nachfolgenden Jahren zeigte sich, dass die Bereitschaft, sich den Ursachen anzunehmen, also u.a. den Finanzderivaten und ihren hohen Risiken, eher gering ist. So sind die Derivate zwar als Ursache für die erhöhte Krisenanfälligkeit der Finanzmärkte allgemein anerkannt. Darum soll es in dieser Ausarbeitung aber weniger gehen, sondern eher um die Handelsmaschinerie, die für die Verbreitung und Verteilung dieser Finanzinstrumente verantwortlich ist. Die Rede ist vom automatisierten und computergestützten Handel, bei der nicht mehr Menschen, sondern Computeralgorithmen, die nach einer fest eingestellten Verfahrensweise bestimmte Orders, also Kauf- und Verkaufsaufträge, einleiten, handeln. Eine besondere Form dieses automatisierten Handels ist der Hochfrequenzhandel, der besonders auf Geschwindigkeit setzt. Genau dieser Mechanismus ist seit 2010 zunehmend in Kritik geraten, insbesondere nach dem Flash Crash vom 6. Mai 2010 an der amerikanischen Börse, als mehrere Leitindizes innerhalb kürzester Zeit um die 1000 Punkte einbrachen. Es wurde zunehmend die Frage gestellt, ob dieser extrem schnelle Computerhandel überhaupt einen sinnvollen Nutzen für das gesamte Finanzsystem hat. Fest steht in jedem Fall, dass der HFH gefährliche Kettenreaktionen auf den Finanzmärkten auslösen kann, wenn durch diesen ausgelöst große Kursschwankungen entstehen. Das vorrangige Ziel aller (finanz)politischen Bemühungen ist es aber, die Märkte im Allgemeinen möglichst stabil zu halten. Ist es dann nicht ratsam, jene Mechanismen auszuschalten, die für Instabilität sorgen?
2) Adressat und Problemstellung
Das Hauptziel aller wirtschafts- und finanzpolitischen Bestrebungen ist es, die Märkte einerseits möglichst frei handeln zu lassen, ihnen andererseits einen gewissen, mehr oder weniger restriktiven ordnungspolitischen Rahmen vorzugeben, in denen sie sich bewegen können. Allgemein fällt die Intensität dieser Restriktionen unter den Begriff Regulierung. Da weiterhin der Finanzmarkt ein internationaler Schauplatz mit internationalen Akteuren bzw. Marktteilnehmern ist und im Zuge der Globalisierung mit grenzüberschreitenden Kapitalverkehr die Weltmärkte generell stärker verbunden sind als vor einigen Jahrzehnten, betreffen sämtliche Ereignisse, die auf diese einwirken und aus diesen entstehen, auch viel mehr Akteure als es früher üblich war. Plötzlich wundert sich der z.B. der deutsche Privatanleger, der Wertpapiere von Firmen der deutschen Automobil-Branche besitzt, dass bei wirtschaftlichen Problemen in Asien oder der USA dies die deutschen Autobauer unter Druck setzt. Allgemein haben erweckt es den Eindruck, dass viele Ereignisse, die ferne Länder betreffen, plötzlichen und zum Teil nicht nachvollziehbaren Einfluss auf den deutschen Leitindex DAX haben. Dadurch, dass so eine hohe Vernetzung untereinander besteht, ist der Domino-Effekt umso stärker geworden, sowohl in die positive, als auch in die negative Richtung. Vor allem letzteres versucht man mittels Regulierung zu kompensieren.
Insofern ist es also allen Ländern ein Anliegen, die Märkte im Allgemeinen, und vor allem wegen seiner voluminösen finanziellen Größe, die Finanzmärkte im Speziellen, möglichst stabil zu halten.
Diese Expertise ist an Jonathan Hill gerichtet, der seit September 2014 durch EU-Kommissionspräsident Jean-Claude Juncker als EU-Kommissar für Finanzstabilität, Finanzdienstleistungen und Union der Kapitalmärkte bestimmt wurde. Insofern soll es in seinem Interesse liegen, dass auch Europa als Wirtschaftsunion von der Stabilität der Finanzmärkte profitiert.
Daher stellt sich das konkrete Problem wie folgt dar:
Hochfrequenzhandel wirkt als Katalysator für Marktvolatilitäten und erhöht die Krisenanfälligkeit der Finanzmärkte.
Grundsätzlich setzt sich das Problem aus zwei Teilproblemen zusammen. Finanzderivate sind der erste Teil des Problems, denn sie erhöhen wegen ihres hohen Risikos die Krisenanfälligkeit von Finanzmärkten, insbesondere bei den hohen Summen, die dort eingesetzt werden. HFH ist der zweite Teil des Problems, denn er beschleunigt den Handel von jenen hochriskanten Derivaten auf Basis von Millisekunden, sodass innerhalb kürzester Zeit bei entsprechender Programmierung riesige Verkaufsorders entstehen können, die zu kräftigen Kursverlusten führen können (Flash Crashs). Umso höher diese ausfallen, umso stärker gewinnt man den Eindruck, dass eine höhere Anzahl an kritischen Situationen generell von einer unberechenbaren Instabilität der Finanzmärkte zeugen. Diese Situation erzeugt Unsicherheit bei den Investoren weltweit, die bis hin zu Kapitalverschiebungen oder - Rückzügen führen kann, welche verheerend für Länder sein können, vor allem solcher, die allgemein als Emerging Markets bezeichnet werden, da diese besonders von ausländischen Kapital abhängig sind.
Um diese gefährliche Kettenreaktion zu unterbinden, sollte es vor allem die Aufgabe des EUFinanzkommissars sein, die erforderten Aufgaben, vor allem die Finanzstabilität, mit geeigneten Maßnahmen zu erfüllen.
3) Was ist Hochfrequenzhandel?
Der Hochfrequenzhandel (High-Frequency Trading, HFT) ist eine Handelstechnik, bei der Wertpapiertransaktionen von eigenständig handelnden, extrem schnellen Hochleistungscomputern ausgeführt werden. Die Computer vollzogen (und vollziehen) die Transaktionen innerhalb von Tausendstelsekunden, wobei sie winzige Preisdiskrepanzen ausnutzten, um einen garantierten Profit zu erzielen. Der Faktor Geschwindigkeit ist so entscheidend, weil die neuen Finanztechniken ganz gezielt winzigste, nur für Bruchteile von Sekunden existierende Preisdifferenzen ausnutzen - und nicht nur ausnutzen, sondern gelegentlich auch erzeugen. Innerhalb von Mikrosekunden kaufen ihre Computeralgorithmen die Aktien, bevor die Orders ausgeführt werden, und verkaufen sie an den ursprünglichen Käufer, womit sie einen winzigen, aber garantierten Profit erzielen. Hochfrequenzhändler waren dem eigentlichen Käufer „zuvorgekommen“ - weshalb diese Technik „front running“ heißt.
Etwa die Hälfte der an den wichtigsten Börsen getätigten Transaktionen in Aktien und Währungen werden nicht mehr von Menschen veranlasst, sondern sind das Produkt von Computeralgorithmen, die in der Lage sind in Bruchteilen von Sekunden große Mengen an Daten zu analysieren und Hunderte von Ordern zu initiieren.
4) Vorteile und Nachteile
Der Hochfrequenzhandel ist nach wie vor groß in der Diskussion. Sowohl die Befürworter als auch Gegner dieser automatischen Handelsmethode argumentieren mit aus ihrer Sicht spezifischen Vor- bzw. Nachteilen hinsichtlich der Finanzmärkte. Die zwei Positionen sollen kurz vorgestellt werden. Einer der größten Befürworter ist die Deutsche Börse, vertreten durch dessen Chef Reto Francioni, der in einem Interview mit der F Z vom 18.11.2013 deutlich macht, dass der „superschnelle Computer [die Börse fair [macht“ (http://www.faz.net/aktuell/finanzen/aktien/boersenchef-reto-francioni- der-superschnelle-computer-macht-die-boerse-fair-12668041.html). Dieses Interview stellt praktisch nur positive Aspekte heraus, eine kritische Betrachtung entfällt. Eines der größten Probleme ist, dass der Computerhandel eine gewissen Unsicherheit in das Finanzsystem mitbringt; viele denken, dass die „Maschinen die Menschen beherrschen“. llerdings sieht die Realität laut Francioni so aus, dass der Computer nur ausführe, nicht aber selbstständig Alternativen bewertet und entscheidet; der Entscheidungskorridor wird vorher vom Menschen bzw. Programmierer bestimmt. (vgl. Link). Insofern handeln die Computeralgorithmen in einem engen, vorgeschriebenen Korsett an Entscheidungsalternativen. Die „Macht“ dieser lgorithmen ist also nicht allzu groß. Weiterhin mache der HFT „die Börsen noch effizienter, macht Märkte noch besser.“ Es gibt also positive Effizienzeffekte, es wird Fairness und Transparenz geschaffen. Es wird immer genügend Liquidität bereitgestellt, denn Käufer und Verkäufer finden schneller eine Gegenseite, die ihnen die Wertpapiere abnimmt bzw. gibt. Der „Spread“, also die Differenz zwischen Ankauf- und Verkaufskurs, sinkt. Auch werden Preisdifferenzen an verschiedenen Börsen durch Arbitrage ausgeglichen. Ohne Computerhandel/HFT wäre der Markt noch volatiler und noch unfairer, so die abschließende Meinung Francionis.
Allerdings treten auch kritische Stimmen auf, die eine Nützlichkeit von HFT für die Finanzmärkte bzw. Volkswirtschaft eher als gering ansehen oder gänzlich ablehnen. In einer Rede des MdBs Dr. Gerhard Schick von den Grünen, der im Rahmen einer Bundestagsdebatte vom 1. März 2013 zum Thema „Hochfrequenzhandel“ deutlich Kritik übt, werden einige problematische Punkte genannt (http://www.gerhardschick.net/index.php/themen/item/220-hochfrequenzhandel). Herr Schick stellt die Kernfrage, um die sich die Diskussion dreht: Ist der Hochfrequenzhandel insgesamt nützlich, und sollten wir versuchen, ihn zu halten? Die grundsätzliche ussage ist, dass der HFT „mehr schadet, als er nützt.“
Ein sehr gewichtiges Gegenargument in dieser Diskussion ist das der Pseudo/Scheinliquidität: es wird Geld bereitgestellt, welches im Ernstfall aber nicht vorhanden ist. Denn die wirkliche Liquidität kommt nur von (natürlichen) Market Makern, die verbindlich An- und Verkaufskurse stellen. In diesem Zusammenhang gibt es auch einen Beitrag von Dirk Müller, einen bekannten Börsenmakler an der Frankfurter Börse, der genau dieses Problem im Rahmen einer Befragung im Bundestag erläutert. Für ihn ist der HFT schlicht illegal und Betrug, denn es werden genau jene Methoden praktiziert, für diese sich die Börsenmakler in der Vergangenheit strafbar gemacht hätten. Wie kommt diese Scheinliquidität zu Stande? Es werden hunderte Orders in Milisekunden aufgegeben, die aber nicht wirklich ausgeführt werden sollen. Somit werden augenscheinlich Wertpapiere zum Kauf oder Verkauf zur Verfügung gestellt, die aber durch die geringe Dauer der Platzierung an der Börse praktisch nicht existieren. Liquidität wird schlicht und einfach vorgegaukelt. Der Jurist Peter Kasiske von der Universität München hält das System ebenfalls für justiziabel, denn „wenn lgorithmen mit Unmengen von Aufträgen anderer Handelssysteme verlangsamen und damit eine nicht vorhandene Nachfrage vortäuschen, dann sei das strafbar“ (http://www.zeit.de/wirtschaft/2015-08/hochfrequenzhandel- boerse-wertpapiere-finanzmarkt/seite-2). Auch der Vorwurf der Marktmanipulation, insbesondere der Einfluss auf die Preisbildung, wird immer wieder genannt. Auch Joseph Stiglitz, Nobelpreisträger für Wirtschaftswissenschaften, „spricht den Hochfrequenzhändlern jede Form des gesellschaftlichen Nutzens ab“ (ebenda). Der Soziologie Dirk Helbing von der ETH Zürich hält sie sogar für „gefährlich für die Stabilität unserer Wirtschaft und Gesellschaft“ (ebenda).
Auch rein technische Fehler bzw. Systemfehler führen zu gewaltigen Verlusten: Ein Softwarefehler führt bei HFT-Dienstleister Knight Kapital zu einem Tagesverlust von 440 Millionen Dollar, der praktisch unkontrollierbar war.
Eins deutliches Ereignis, was die Unberechenbarkeit von Computerhandel zeigt, ist der Flash-Crash vom 6. Mai 2010. Kaskadeneffekte bis hin zu Flash-Crashs als Risiko; an diesem Tag brachen die Kurse der amerikanischen Indizes Dow Jones, S&P 500 und des NASDAQs innerhalb von 15 Minuten um 1000 Punkte ein. Der Schuldige wurde schnell gefunden: HFT-Algorithmen, die eine größere Verkaufsorder in kleinere Pakete splitteten und durch die immer wieder neu auslösenden Verkaufsorder bei gleichzeitig fallenden Preisen zu einer schnellen Abwärtsspirale der Wertpapierpreise führten; höchst problematisch in diesem Zusammenhang ist, dass durch die sekundenschnelle Kommunikation dieses Phänomen immer spontaner auftreten kann und somit praktisch nicht mehr prognostizierbar ist.
[...]