Der Wunsch, einen Blick in die Zukunft zu erhaschen, ist wahrscheinlich so alt wie das Bewusstsein für die Zeit selbst. Schon seit Jahrtausenden bedienen sich Menschen verschiedenster Methoden, um heute schon zu wissen, was Morgen passieren wird. Ein Beispiel ist Alexander der Große, der das Orakel von Delphi aufsuchte, um sich Rat bezüglich seines nächsten Feldzuges zu holen. Dabei, so weiß man heute, handelte es sich bei dem Orakel nur um eine Priesterin, die aus der Erde austretende Gase einatmete und so in Trance versetzt wurde.
Auch heute kann niemand mit Sicherheit sagen, was die Zukunft bringen wird, aber es wurden Wege gefunden, um deutlich präzisere Vorhersagen zu erstellen. Die Vorhersagen beschäftigen sich heute häufig mit den Entwicklungen des Marktes. So sind es meistens Unternehmen, denen viel daran gelegen ist, einen Blick in die Zukunft zu erhaschen. Oft sind sie bereit dafür, eine Menge Geld zu investieren – und das zu Recht.
Henry Ford konnte es sich noch erlauben über sein Model T zu sagen: „Sie können es in jeder Farbe haben, solange es schwarz ist“. Die Freiheit so losgelöst von Kundenwünschen zu agieren haben Unternehmen schon lange nicht mehr. Heute haben Nachfrageschwankungen weitreichende Folgen entlang der meist verzweigten Supply Chain. Diese Schwankungen zu verringern bzw. sie frühzeitig vorherzusagen kann eine deutliche Gewinnsteigerung zur Folge haben – neben weiteren positiven Effekten, wie der Minimierung von Ressourcenverschwendung.
Schon einfache Methoden, wie die Vorhersage der Absatzzahlen basierend auf dem Durchschnitt der vergangenen Verkaufsperioden, können hilfreich sein. Dabei gibt es aber auch viel komplexere Verfahren, die beliebig viele Faktoren berücksichtigen können. Mit Hilfe von statistischem und maschinellem Lernen können sozioökonomische Faktoren, Beiträge auf Social Media, Feiertage und selbst Wetterdaten bei Prognosen miteinbezogen werden. Die Vielfalt an frei zugänglichen und von Unternehmen gesammelten Daten hat in den letzten Jahren enorm zugenommen. Es bedarf nur der richtigen Kenntnisse, um diese gewinnbringend einzusetzen.
Dabei kommt Data Mining ins Spiel, die strukturierte Analyse von großen Datenmengen. Eine anschauliche Analogie beschreibt die Bedeutung von Data Mining sehr treffend: In den Weltmeeren gibt es viel Gold, das dem „Gold Miner“ erhebliche Einnahmen bringen würde, wenn bekannt wäre, wie es mit wenig Aufwand gefunden und an die Oberfläche befördert werden könnte. Ähnlich ist es mit den nie endenden Datenströmen. Sie enthalten, tief verborgen unter Milliarden irrelevanter Informationen, einige wenige Informationen, die für eine bestimmte Zielgruppe goldwert sein können.
Letzten Endes kommt es auf die richtige Extraktionsmethode an und davon stellt das Data Mining einige bereit. Ähnlich, wie menschliche Gehirnzellen prozessieren z.B. sogenannte künstliche Neuronale Netze Informationen und können so Prognosen erstellen, indem sie Muster in Daten suchen. Muster gibt es in der Tat viele zu finden. Wir Menschen sind und waren schon immer Gewohnheitstiere. Strukturierte Abläufe und Routinen geben uns Halt und helfen uns unser Leben zu gestalten. Wobei es natürlich auch immer wieder unerwartete Zufälle gibt, die unsere Pläne durcheinanderwerfen oder der Drang einsetzt, Mal etwas Neues auszuprobieren. Was denken Sie also, wie präzise Vorhersagen sind? Eine Genauigkeit von 70, 80 oder vielleicht 90 Prozent? Es gibt tatsächlich Studien, die Prognosemodelle basierend auf maschinellem Lernen anwenden und damit eine Präzision von 98 Prozent erreichen. Ich persönlich bin davon schwer beeindruckt und freue mich sehr, mich mit diesem Thema in meiner Dissertation beschäftigen zu dürfen. Modelle des maschinellen Lernens sind eben keine Orakel, sie sind tatsächlich besser.
Lara Kuhlmann ist Promotionsstipendiatin in der GSofLog. Ihre Dissertation zum Thema Forecasting mit Hilfe von neuester statistischer Methoden schreibt sie in Kooperation mit der Vorwerk International. Ihr Doktorvater ist Prof. Dr. Markus Pauly.