Freut mich, dass Sie Zeit für ein Interview gefunden haben. Könnten Sie sich vielleicht kurz vorstellen, was war Ihre bisherige Ausbildung?
Eigentlich bin ich studierter Ökonom. Ich habe Volkswirtschaftslehre an der Universität Wien studiert und im Anschluss an der Vienna Graduate School of Finance meinen PhD absolviert. Im Rahmen meines PhDs habe ich zum Thema Fintech dissertiert. Was sich durch alle meine Arbeiten wie ein roter Faden gezogen hat, war die Datenanalyse und so habe ich mir dann im Laufe der Zeit die notwendigen Skills dafür angeeignet. Mein Fokus galt hierbei R und der Frage, wie ich unterschiedlichste Daten operationalisieren und auswerten kann. Mit diesem Background habe ich mich dann im Finanzsektor umgesehen und bin schnell auf Data Science gestoßen. Was mich wiederum zu wikifolio gebracht hat. Bei wikifolio war ich dann für den Bereich Business Intelligence zuständig, was wiederum bedeutet sehr viel Datenaufbereitung zu betreiben, Adhoc-Analysen zu machen oder auch ein Data Reporting System einzurichten, um alle Teams im Unternehmen dabei zu unterstützen, datengetriebene Entscheidungen zu treffen. Durch diese Arbeit bin ich dann auch immer mehr in die Produktentwicklung gekommen und eben seit September Director of Product.
Und was genau ist eigentlich wikifolio?
Wikifolio ist eine Social Trading Plattform, die einerseits erfahrenen Anlegern ermöglicht, ihre Handelsideen in wikifolios umzusetzen und zu veröffentlichen, andererseits Investoren die Chance bietet, von der Erfahrung der wikifolio Trader zu lernen und zu profitieren. Jeder Nutzer kann den wikifolio Tradern folgen und entweder die einzelnen Trades selbst in dem eigenen Portfolio nachstellen oder an allen Trades partizipieren in dem er das wikifolio über die Börse kauft. Was uns auch stark von anderen Anbietern trennt, bei denen es nicht möglich ist die Produkte über die Börse zu erhalten.
Wie sieht ein typischer Arbeitstag von Ihnen aus?
Der durchschnittliche Tag in einer Führungsposition ist natürlich von vielen Meetings geprägt, aber ich komme doch noch fast täglich zum Programmieren. Was heißt, dass die anstehenden Tasks abgearbeitet werden. Solche Tasks können zum Beispiel, diverse Anfragen aus der Firma sein, an einem Dashboard weiterbasteln oder eben an Prototypen für datengetriebene Produkte arbeiten.
Sie haben bereits R erwähnt, wieso haben Sie sich entschieden R zu benutzen und nicht andere Sprachen oder auch Programme?
Tatsächlich ist es so, dass ich damals auf der Uni Stata gelernt habe, was furchtbar war. Zum Beispiel konnte man zumindest damals nur eine Dataframe in der Memory haben, was speziell in Bezug auf komplexere Aufgaben die Hölle ist. Im Praktikum bei der Finanzmarktaufsicht wurde mir dann von meinem Supervisor R und dplyr nahegelegt, das hat mein Leben verändert. Außerdem hat R auch eine sehr große und aktive Community, was sehr hilfreich ist.
Die Community in den verschiedenen Bereichen macht eben auch einen großen Unterschied und wird vielleicht von vielen unterschätzt.
Ja total! Das Ganze ist Open Source du lebst nicht davon, dass dir eine Firma vorgibt was State of the Art ist, sondern du musst dir selber Sachen suchen und das ändert sich auch schnell. Was wiederum nicht immer leicht ist, dies stellt uns auch in der Praxis öfter vor Herausforderungen. Stichwort Verwendung von Packages über mehrere Jahre.
Kommen wir nun zum Hauptteil des Interviews. In welchen Bereichen der Finanzwelt findet Data Science Anwendung und seit wann ist es ein Thema?
Es gibt generell ganz viele Bereiche, die von Data Science getrieben sind. Kreditrisikomodellierung ist hierbei ein klassisches Thema. Wobei es darum geht Ausfallwahrscheinlichkeiten vorherzusehen. In Bezug auf Prediction kann man natürlich irrsinnig viel machen, was in den Banken auch ein großes Thema ist. Ein ganz anderer Bereich sind Chatbots, eine KI hierfür aufzusetzen fällt auch in den Data Science Bereich.
Mein Verständnis von Data Science ist ein sehr breites, es geht hierbei um Datenmanagement, Datentransformierung, Visualisierung und nicht zu vergessen Modellierung. Der letzte Punkt ist dann eigentlich derjenige der Machine Learning oder Deep Learning zur Anwendung bringt. Daten waren immer schon relevant. Was sich aber mit der Zeit verändert hat, waren die Tools die uns zu Verfügung stehen. Früher hat man vielleicht mehr Excel verwendet, heute verwendet man meistens Programmiersprachen. Daten verfügbar zu machen ist ein riesiger Punkt und meiner Meinung nach ein großer Wachstumsbereich. Jede Woche kontaktiert mich ein Startup diesbezüglich. Jene Unternehmen haben sich speziell auf Finanzdaten und deren Vorverarbeitung spezialisiert. Das eine mehr auf strukturierte Daten das andere mehr auf Unstrukturierte. Unstrukturierte Daten sind hier beispielsweise Pressreleases, Kommentare, Blogartikel oder auch Tweets. Jene Daten werden versucht greifbar zu machen, denn niemand kann tausende Artikel lesen. Hier sind wir dann im Bereich Natural Language Processing unterwegs. Konkret wird auch versucht ESG Daten zu extrahieren was wiederum sehr schwer zu quantifizieren ist, denn wie möchte man die Frage: Wie viel trägst du zum Klimawandel bei, in Zahlen gießen? Viele große Anbieter wie MSCI oder Refinitiv versuchen dieses Problem zu lösen, nur sind jene Daten oft sehr unterschiedlich, von Anbieter zu Anbieter.
Generell muss man sagen, dass es am Finanzmarkt sehr unterschiedliche Bedürfnisse gibt. Beispielsweise sind kurzfristig agierende Akteure an anderen Daten wie langfristige Investoren interessiert.
Was kann man sich unter ESG Daten vorstellen?
Es gibt momentan am Markt unterschiedliche Rating Agenturen welche Zahlen bereitstellen und anhand eines Scores Unternehmen bezüglich ihrer Umweltfreundlichkeit aber auch auf sozialer Ebene bewerten. In verschieden Risiken einteilen und Punkte vergeben. Ein interessantes Wiener Unternehmen ist diesbezüglich Cleanvest. Ich denke in diesen Bereich wird sich noch viel weiterentwickeln und das muss es auch.
Automatisierung spielt immer eine größere Rolle, jedoch braucht es auch eine Person oder ein ganzes Team hinter jedem Projekt. Wie wichtig ist die qualitative Komponente, sprich die Fähigkeit zwischen den Zeilen zu lesen in jener Branche?
Das bringt uns zu einem spannenden Punkt. Was man in den letzten Jahren beobachten kann ist, dass es immer leichter wird Data Science „zu machen“. Beispielsweise kann man heute innerhalb von wenigen Minuten mit Hilfe des Internets Algorithmen implementieren, welche vor Jahren noch einen immensen Zeitaufwand und viel Wissen voraussetzten. Dies führt aber zu der Gefahr das viele Leute einfach mal ein Modell machen und nicht viel darüber nachdenken. Ich denke diese qualitative Komponente zu wissen, wie ich als Data Scientist das Modell beeinflussen kann und wie wichtig ich eigentlich in dieser Rolle bin, sollte jedem bewusst sein. Diesbezüglich habe ich ein wenig Angst. Dies könnte in Zukunft unterschätzt werden. Es ist ein wichtiger Skill zu verstehen, was hier eigentlich gemacht wird und zu wissen wie man das intern so wie extern verkauft. Die Zeit wird enden, wo die Management Ebene sich zufriedengibt, wenn eine KI involviert ist, sondern man wird auch wissen wollen, was die KI eigentlich macht.
Sehen Sie eine Gefahr darin das wir in der Finanzbranche immer mehr Systemen überlassen wo wir als Menschen vielleicht gar nicht immer genau wissen was passiert?
Das ist eine spannende Frage und wird auf wissenschaftlicher Ebene auch viel diskutiert. Ein konkretes Beispiel sind sogenannte Flash Crashes, welche dann entstehen, wenn Algorithmen gerade irgendetwas Schwachinniges machen. Jene Leute die diese Programme entwickelt haben lernen dann aber auch sehr schnell aus ihren Fehlern. Man wäre vielleicht verlockt zu sagen, je mehr Maschinen involviert sind, umso weniger irrationale Phänomene entstehen. Andererseits haben Menschen ja auch jene Maschinen konzipiert und ich denke, dass die Entwickler auch dies zu einem gewissen Grad weitertragen können.
Könnten Sie uns zum Abschluss noch einen Zukunftsausblick für die Branche geben?
Data Science wird in Zukunft an Relevanz gewinnen, nicht dass jetzt in jedem Unternehmen ein Data Scientist sitzt, sondern dass es einfach immer mehr einfache Tools geben wird. Was ich auch persönlich beobachten kann ist zum Beispiel ein starkes Wachstum an Business Intelligence Tools, wo man mit wenigen Klicks sein eigenes Dashboard bauen kann, früher hat man hierfür einen Data Scientist eingestellt, welcher die Daten gesammelt und aufbereitet hat.
Vielen Dank für das Interview!
Gerne, ich hoffe ich konnte einen kleinen Einblick in die Finanzwelt geben.
Interview & Autor: Martin Eiszner
Student Data Science an der FH St. Pölten