Wir leben in einem Zeitalter der Informationsflut. Allerdings liegt ein Großteil der Information brach, im Sinne von daraus können keine Informationen abgeleitet werden. Ich vertrete das auf die harte Tour. Information ist das, das mir relevante Steuerungsinformationen liefert, der Rest ist Datenmüll.
Den Umgang mit Daten, Datendesign, Datencrunshing, Visualisierung und Modellierung erlernt man nicht in wenigen Stunden. Das dauert Jahre und macht sich dann auch bezahlt. Denn dann kann man Dinge machen und sehen, die viele andere eben nicht können.
Ich bin Data-literate, fundiert in SQL, R-Project, der Modellierung sowie Fit in der Anwendung von Prognose, Clusterungen, interaktiven Datenvisualisierungen bis hin zu Textmining. Und der Unterschied der den Unterschied macht. Ich kann nicht nur Powerpoint sondern auch Programmieren.
Ich treibe mich auf diesem Feld seit Anfang der 2000er Jahre herum, als ich mir ein Doktorat und Conference Speaches erarbeitete, in dem ich Bilanzanalyse mit künstlichen neuronalen Netzen machte.
Die Idee war relativ simpel – ich ließ meinen Computer glühen und rechnete automatisch mit verschiedenen Verfahren (z.B. Neuronale Netze, Support Vector Machines etc. und verschiedenen Variablenkatalogen) etwa 10.000 Modelle. Diese ließ ich autoevaluieren und formte mit den besten 5-7 ein künstliches Expertengremium Namens Board of Artificial Experts. Eine Markenregistrierung brachte mir noch eine schelte eines Direktors der Bank ein, da ich 150 EUR seiner Ansicht nach sinnlos verbraten hatte. Aber das ist eine andere Geschichte und soll ein anderes Mal erzählt werden.
Ich schrieb die Programme in R, einer kostenlosen Statistikplattform. 2000 war das noch im Dornröschenschlaf, es gab keine ordentliche Entwicklungsumgebung und es war ein Segen, als ich einen Editor mit Syntax Highlighting entdeckte. Seither hat R einen Quantensprung hingelegt.
Early 2019 bin ich wieder intensiver in das Feld eingestiegen, es ging darum um Use cases im Finance Bereich einer internationalen Großbank zu finden und auszuprogrammieren. Ich beschäftigte mich mit Anormality Detection, Budgetprognosen sowie Textmining.
In der COV-19 Zeit verbrachte ich den Lockdown großteils im www.datacamp.com und zog mir so ziemlich alle R Kurse und Carreer bzw. Skilltracks hinein. In Python habe ich mir ebenfalls Basiskenntnisse angeeignet.
Als PMO Lead in einem der größten Versicherungstransformationsprogramme in Europa konnte ich von meiner gewonnenen Dataliteracy profitieren.
Meine Vision, die Data Driven Discussion führen zu können, wurde bereits in Teilbereichen Realität. Wer seine Daten im Griff hat, schnell realistische Szenarien definieren und deren Eckpunkte der Finanzimplikationen automatisiert visuell und ggf. interaktiv darstellen kann, hat die Nase vorne.