Im Hochfrequenzhandel liefern sich Händler einen Wettlauf um neue Geschwindigkeitsrekorde: Mit der heute üblichen Hightech-Ausrüstung können Dienstleister mehr als 100 000 Transaktionen pro Sekunde und Kunde abwickeln. Noch in diesem Sommer werden die Finanzzentren von London und New York um weitere 2,6 Millisekunden (rund zehn Prozent) schneller kommunizieren können, sobald sie mit einem neuen, 300 Millionen US-Dollar teuren transatlantischen Glasfaserlink – Spitzname Hibernia Express – aufgerüstet sind. Mit dem Fortschritt der Technik existieren für die Händler bald nur noch die Grenzen der Physik – und deren letzte Barriere, die Lichtgeschwindigkeit.

Durch Glasfaserkabel können Informationen mit zwei Drittel der Lichtgeschwindigkeit im Vakuum (300 000 Kilometer pro Sekunde) geschickt werden. Schneller geht es nur noch kabellos durch die Luft: Der Äther zwischen Chicago, New York und New Jersey sowie zwischen London und Frankfurt brummt vor lauter Kommunikationswellen im Mikro- und Millimeterwellenbereich. Noch effizienter arbeitet ein Lasernetzwerk auf der technischen Grundlage militärischer Geräte, die ebenfalls die Verbindung zwischen den Finanzzentren London und Frankfurt aufrechterhalten.

Der "Flash Crash" von 2010
© Buchanan, M.: Trading at the speed of light. In: Nature 518, S. 161-163, 2015; nach: Dow Jones
(Ausschnitt)
 Bild vergrößernDer "Flash Crash" von 2010

Der nächste Schritt dürften demnächst Hohlleiterglasfaserkabel sein, durch deren mit Luft gefüllte Mitte Licht mit "echter" Lichtgeschwindigkeit reist. Handelshäuser denken auch schon über eine Ballonflotte oder unbemannte Solardrohnen mit Signalverstärkern nach, mit denen ozeanüberspannende Nachrichtennetze geknüpft werden sollen. In vielleicht zehn Jahren möchten Händler lichtschnelle Neutrinos für Kommunikationszwecke einspannen können, die Hindernisse wie den Erdboden einfach durchfliegen. Hinter allen Ideen steckt Profit – jener der Hochfrequenz-Trader, die derzeit in Europa und den USA rund 50 Prozent des Aktienhandels abwickeln.

Einige Händler warnen allerdings vor unfairen Entwicklungen, wenn nicht alle die neuen Geschwindigkeitsvorteile nutzen können. Zudem sorgten auf unvorhersehbare Weise interagierende Algorithmen schon für systemweite Ausfälle – so geschehen etwa am 6. Mai 2010, als der Dow-Jones-Index innerhalb weniger Minuten den bisher tiefsten Sturzflug aller Zeiten hinlegte. Niemand kann vorhersehen, ob solche Ereignisse auf die Weltmärkte überspringen können.

Um das Risiko zu minimieren und sinnvolle Gegenmaßnahmen zu entwickeln, sollte das Wesen des Marktes – ein kompliziertes Ökosystem interagierender Algorithmen – besser untersucht werden.

Eine Nasenlänge voraus sein

Die Basis des Hochfrequenzhandels sind Hochleistungsrechner, Algorithmen, die über Kauf und Verkauf entscheiden, und die zeitnah eingespielten Daten der Finanztrader weltweit. Jede Mikrosekunde verschafft in diesem Geschäft entscheidende Vorteile: Eine schnellere Datenverbindung zwischen den Akteuren verringert die Dauer einer Abwicklung, und so kämpfen Gruppen von Tradern schon häufig um die dem Netzknotenpunkt am nächsten gelegenen Computerstellplätze. Alles ist teuer: Einen Monat Hochgeschwindigkeitsleitungen mietet man für rund 10 000 US-Dollar.

Die Leistungsfähigkeit der Kommunikationstechnik wird dabei zum begrenzenden Faktor. Die meisten Daten laufen über Glasfaserkabel, die aber nicht die gewünschte Geschwindigkeit hergeben. Auch die schnellste Drahtlosverbindung folgt noch einer geodätischen Bogenlinie zwischen zwei Punkten: dem kürzesten Weg entlang der Erdoberfläche. Schneller ginge es per Mikrowellen, die auf die direkte Gerade einer Sichtverbindung geschickt werden; und noch besser würden sich wegen ihrer potenziell höheren Datendichte Millimeterwellen oder Laser eignen.

Solche Open-Air-Verbindungen haben dann wieder andere Nachteile, etwa eine gewisse Abhängigkeit von der Wetterlage. Der Netzwerkdienstleister Anova Technologies hat deswegen sein New Yorker Laser-Netzwerk mit Milliwellensendern rückversichert, um gegen Regen, Nebel und Schnee gewappnet zu sein. Adaptive Ausrichter halten die Verbindung sogar bei Windstärken aufrecht, die die Sendemasten um bis zu drei Winkelgrade verdrehen. Ohne Verstärker funktionieren aber weder Mikrowellen- noch Laserfunkfeuer über größere Distanzen: Sie schwächen sich in der Atmosphäre schnell ab; zudem folgen sie auch nicht der Erdkrümmung.

Der Nutzen solch technischer Aufrüstung wird von manchen Ökonomen zudem generell bezweifelt. Der Träger des Nobelpreises für Wirtschaftswissenschaften Joseph Stiglitz gehört zu denen, die den Hochfrequenzhandel für gesamtgesellschaftlich unnütz halten [2]. Schließlich werden dabei rund 95 Prozent aller Aufträge schnell wieder zurückgezogen [3]. Und schlimmer noch: Das Tempo könnte ein korrektes Funktionieren der Märkte sogar hemmen. Denn traditionell wird der Sinn des Finanzmarktes darin gesehen, als Handelsplatz vielfältiger Informationen vieler Menschen zu fungieren und ihre Investitionen zu kanalisieren. Das aber könne nur funktionieren, wenn der Handel auf der Grundlage von Expertise, solide recherchierten Daten und Geduld basiert – also genau dem, was dem Hochfrequenz-Algorithmussystem völlig abgeht [2].

Gut, schlecht und hässlich

Hochfrequenzhandel hat Vor- und Nachteile. So sorgt er einerseits für Marktliquidität, macht es also für einzelne Markteilnehmer einfacher, Handelspartner für Abschlüsse zu günstigen Konditionen zu finden. Ein liquider Markt nutzt dem Handel auf ähnliche Weise wie frei fließender Verkehr den Verkehrsteilnehmern. Auf ihm sind niedrige Preisspannen typisch – also eine geringe Differenz zwischen dem Preis ge- und verkaufter Werte. Das wirkt sich auf die Gebühren aus, die ein Broker für sich selbst ansetzen kann; einen Betrag, der für Investoren die Transaktionskosten erhöht. Mit dem zunehmendem Volumen des Hochfrequenzhandels in der vergangenen Dekade sank demnach gleichzeitig die Preisspanne in vielen Märkten – und verbilligte den Handel insgesamt [4].

Allerdings ist die Entwicklung der Liquidität im computergestützten Handel stets im Fluss – und sie kann in chaotischen Marktsituationen auch einbrechen. Wild fluktuierende Preise erhöhen dann das Risiko für Händler, die ihren Gewinn mit "Market Making" erzielen – die also die Bewegung von momentanen An- und Verkaufskursen sowie schwankenden Preisspannen beobachten, um diese auszunutzen. Die dabei eingesetzten Algorithmen zur Profitoptimierung werden in Phasen übergroßer Volatilität zunehmend fehleranfälliger und sind so programmiert, das Marktgeschehen dann schnell zu verlassen. In solchen Situationen verschärfen dann aber die ganz ähnlichen Algorithmen der Hochfrequenztrader das Problem, weil sie im selben Augenblick aussteigen – ebendies geschah beim Flash Crash 2010. Natürlich sind aber auch menschliche Broker vor ähnlichen Entwicklungen nicht sicher, denn auch sie machen sich ja vom Parkett, wenn die Lage zu bedrohlich erscheint.

Als Pluspunkt des Hochfrequenzhandels wird gesehen, dass er die Preise der Börsenplätze synchronisiert [5]. Im Handel braucht es Zeit, um Informationen zu verarbeiten, Schlüsse zu ziehen und Preise anzupassen. Sobald zum Beispiel der Preis von Rohzucker oder der vom Maissirup- Fruchtzuckerkonzentrat steigt, würden zunächst die Aktien von Coca-Cola schnell fallen und erst danach – etwas später und langsamer – die von weniger bekannten Softdrink-Produzenten. Im Hochfrequenzhandel beschleunigt sich dieser Prozess enorm: So brauchte es im Jahr 2000 im Durchschnitt noch Minuten, bis eine Preisänderung von einem Gut auf andere im selben Segment durchschlugen; heute geschieht das in weniger als zehn Sekunden. Und genau dies findet nicht jeder gut: Die schnelle Synchronisation minimiert zum Beispiel den Profit von Unternehmen, die ihr Geld bisher durch das Ausnutzen eines Wissensvorsprungs über momentane Preisschwankungen verdient haben.

Marktdynamiken

Einige Hochfrequenz-Handelshäuser nutzen Anachronismen in der Struktur der Märkte. In den USA ist gesetzlich geregelt, dass auf einem regulierten Handelsplatz der jeweils beste Preis für den An- und Verkauf einer Aktie an eine zentrale Regulierungsstelle weitergegeben wird, die diese Information dann auswertet, um einen landesweiten besten Geld- und Briefkurs öffentlich zu machen, den National Best Bid and Offer (NBBO). Nun tauschen Akteure aber schon vorher schneller proprietäre Daten aus, auf deren Grundlage Unternehmen die Entwicklung des NBBO vorhersehen können – sie gewinnen so einen Vorsprung über alle anderen, die nur den öffentlich gemachten NBBO kennen. Daher können Hochfrequenzhändler nun den langsameren Konkurrenten eine Nasenlänge voraus sein, was meist aber dazu führt, die Preise noch stärker zu synchronisieren. Große Investoren – etwa Investment- oder Versicherungsfonds, die sich auf realwirtschaftliche Fundamentaldaten stützen oder eine nachhaltigere Entwicklung im Auge haben – gehören dann zu den Verlierern, auch wenn sie ebenfalls von den niedrigeren Preisspannen im Hochfrequenzhandel profitieren.

"Programmierfehler oder Rechnerausfälle können allzu schnell eine nicht kontrollierbare Absturzspirale einleiten"

In den USA haben deshalb einige Handelshäuser schon private Umschlagplätze eröffnet, auf denen sie dem Zeitdruck des Hochfrequenzhandels zu entgehen hoffen. So zielt etwa das 2013 eröffnete alternative Handelssystem IEX darauf ab, NBBO-Umgehungstricks zu verhindern: Als Tempodrossel soll hier eine automatisch eingeschobene, 350 Mikrosekunden lange Verzögerung fungieren, die es Händlern unmöglich macht, allein von einem Geschwindigkeitsvorteil profitieren zu können. Schon heute wird immerhin ein Prozent des Aktientransaktionsvolumens der USA an der IEX abgewickelt. Andere Staaten könnten bald nachziehen.

Wo eine Transaktion mit womöglich realwirtschaftlichen Konsequenzen von Computern in einer Geschwindigkeit abgewickelt wird, die sich der menschlichen Kontrolle entzieht, können Programmierfehler oder Rechnerausfälle allzu schnell eine nicht kontrollierbare Absturzspirale einleiten. Im Jahr 2012 sorgte ein Bug in den Algorithmen eines der größten US-Hochfrequenzhandelshäuser – Knight Capital – für Verluste von 440 Millionen US-Dollar in 45 Minuten: Das System kaufte in dieser Zeit zu höheren Preisen, als es verkaufte.

Plötzliche Ausschläge in der Preisentwicklung von Aktien kommen zunehmend häufiger vor. In die Zehntausende ging in den letzten paar Jahren eine Kursänderung um mehr als ein Prozent innerhalb von 0,04 Sekunden [6]. Nach dem Flash Crash 2010, der sich um 14.45 Uhr New Yorker Ortszeit abspielte, hatten sich die Märkte nach rund eine Viertelstunde wieder beruhigt – wäre er kurz vor Börsenschluss geschehen, so hätte dies die Märkte weltweit tangiert und viel langfristigere Aufräumarbeiten erfordert. Einige Investoren warten indes schon auf den "Splash Crash", bei dem ein massiver Kursausschlag irgendwo zuschlägt, den Handel mit Devisen, Termingeschäften, Waren, Aktien und allen anderen Handelsgütern durcheinanderwirbelt, einfriert und schließlich eine weltweite Krise verursacht.

Manche Experten vermuten dagegen, dass die Ausschläge von einer allmählichen grundlegenden Veränderung der Marktdynamik künden [6], die damit zusammenhängt, dass die großen Akteure immer simplere Algorithmen einsetzen, um überhaupt noch schnell genug rechnen zu können.

Systematisches Risiko

Der Finanzmarkt der Gegenwart unterscheidet sich enorm von dem früherer Jahre. Statt den kollektiven Entscheidungsprozess von Händlern zu spiegeln, beruht er auf komplexen Rechnernetzwerken und deren Austausch mit den menschlichen Nutzern. Die Gefahr einer womöglich globalen Ausweitung von lokalen Problemen steigt, wenn Hochfrequenzhändler immer mehr Termingeschäfte und Anlagen an Auslandsbörsen handeln [7]. Und kein Industriezweig – von der Energieversorgung über die Lebensmittelbranche bis zum Versicherungs- und Bankwesen – kann sich vor möglichen Folgeschäden sicher fühlen.

Mit den in Zukunft lasergestützten Drahtlosverbindungen warten noch bizarrere Szenarien auf uns. So dürfte der Ort, an dem Händler schnellstmöglich einen Informationsvorsprung erzielen können, genau zwischen Hauptknotenpunkten wie Chicago und London liegen – also mitten über dem Atlantik. Genau hier würden innovative Händler dann versucht sein, "relativistische Arbitrage-Geschäfte" [8] technisch abzuwickeln, bei denen sie in Augenblicken auftauchende und verschwindende Preisunterschiede zwischen London und Chicago ausnutzen. Zur Erklärung: Nachdem laut spezieller Relativitätstheorie nichts schneller als die Lichtgeschwindigkeit c sein kann, kann ein Händler, der im Abstand D von einem Handelsplatz agiert, von dort aus im besten Fall in der Zeit t=D/c Informationen erhalten. Zwischen zwei großen globalen Handelsplätzen (etwa A und B) summieren sich die Laufzeiten in der Realität tatsächlich auf wenige bis einige zehn Millisekunden. Exakt auf halbem Weg zwischen zwei Orten – aber nur dort – wird der Händler gleich schnell Informationen von beiden bekommen können, also t(A)=t(B). Denkbar wäre also, dass es sich in ein paar Jahren lohnen könnte, ein Schiff oder eine stationäre Plattform auf halber Strecke zwischen den großen Börsenumschlagplätzen auf dem Atlantik zu unterhalten.

Hotspots des Hochfrequenztradings
© Buchanan, M.: Trading at the speed of light. In: Nature 518, S. 161-163, 2015; nach: Wissner-Gross, A.D., Freer, C. E.: Relativistic statistical arbitrage. In: Physical Review E 82, 056104, 2010, fig. 2
(Ausschnitt)
 Bild vergrößernHotspots des Hochfrequenztradings

Bei all dem bleibt allerdings festzuhalten, dass die Profite im Hochfrequenzhandel in den letzten Jahren rückläufig sind – was darauf hindeutet, dass die einfachen Wege zum Geldverdienen in diesem Bereich vielleicht auch alle schon beschritten wurden. Wenn das Räderwerk der Finanzmärkte in zehn Jahren aber tatsächlich nur noch von der einsteinschen Geschwindigkeitsbegrenzung zwischen New York und Melbourne limitiert wird, sollte auch die Politik unbedingt zwei Punkte auf ihrer Agenda schon abgearbeitet haben: Zum einen muss geklärt sein, wie der mögliche Super-GAU verhindert werden kann – und zum anderen muss deutlich werden, auf welche Weise die Märkte am besten dem Allgemeinwohl verpflichtet werden können.

Punkt eins setzt voraus, dass mehr über die unterschiedliche Dynamik der algorithmusbasierten und von menschlichen Händlern und Investoren betriebenen Märkten geforscht wird. IT-Experten, Mathematiker und Ökonomen sollten gemeinsam ein Verständnis für die Bedingungen entwickeln, die zu blitzartigen Crashs führen – und die Marktstrukturen so verändern, dass dem vorgebeugt wird. Gibt es Sicherungen, die im Ernstfall das Durchbrennen des Netzes und den totalen Kontrollverlust verhindern können?

Zweitens aber müssen Forschung und Politik entscheiden, wie Märkte reguliert werden können, um der Realwirtschaft tatsächliche Investitionsschübe geben zu können. Dem algorithmusbasierten Handel sind in den letzten zwei Jahrzehnten große Spielräume gewährt worden – in der Erwartung, dass der dort generierte Profit von Unternehmen dem Markt insgesamt zugutekommt. Tatsächlich legen neue Forschungsergebnisse nahe, dass für Finanztransaktionen ein Geschwindigkeitslimit existiert – und dass die Märkte es schon heute weit überschritten haben.


Der Artikel ist im Original "Trading at the speed of light" in "Nature" erschienen.