Inhaltsübersicht

Im antiken Griechenland machten sich die Menschen, die Antworten auf ihre Zukunftsfragen suchten, auf die lange Reise zum Apollon-Tempel in Delphi. Nach langen Gesprächen mit den Tempelpriestern brachten die Pilger ihre Fragen dem Orakel vor, einer Priesterin, von der man glaubte, dass sie eine direkte Verbindung zu den Göttern hatte. In einem tranceähnlichen Zustand übermittelte das Orakel angeblich die Weisheit der Götter. Die Bittsteller kehrten in dem Glauben nach Hause zurück, dass sie die nötige Führung erhalten hatten, um sich dem zu stellen, was ihnen in der Zukunft bevorstand.

Fast 3.000 Jahre später suchen die Menschen immer noch nach Antworten auf die Frage, was die Zukunft für sie bereithalten könnte. Dies gilt insbesondere für die Geschäftswelt, in der Führungskräfte nach Informationen suchen, von denen sie sich eine effektive Entscheidungsfindung erhoffen. Sie wollen wissen, wie viele Vorräte sie bestellen sollten, auf welche Produkte und Dienstleistungen sie sich konzentrieren sollten, welche neuen Märkte am meisten Erfolg versprechen und vieles mehr. Aus diesem Grund sind Geschäftsprognosen ein so wichtiges Element der Planung.

Bevor das digitale Zeitalter Einzug hielt, verließen sich Wirtschaftsführer auf eine Reihe von qualitativen Prognosemethoden, um einen Blick in die Zukunft zu werfen. Dazu gehörte die Delphi-Methode, bei der in mehreren Runden anonymer Umfragen systematisch Beiträge von einem Expertengremium eingeholt und die Prognosen auf der Grundlage des iterativen Feedbacks verfeinert wurden. Mit dem Aufkommen des Computers wurde es jedoch möglich, einen stärker datengestützten quantitativen Prognoseansatz zu verwenden.

Das Orakel von heute residiert nicht in einem Tempel aus Marmor, sondern tief in den Datenbergen, die Unternehmen täglich sammeln und analysieren. Obwohl es nicht behauptet, dass die von ihm bereitgestellten Informationen aus göttlicher Inspiration stammen, bietet es viel mehr Transparenz darüber, wie es zu seinen Schlussfolgerungen kommt. Mit den neuen Entwicklungen im Bereich der künstlichen Intelligenz und des maschinellen Lernens, die immer wieder neue Maßstäbe setzen, war es für Führungskräfte noch nie so einfach, einen Blick auf den Horizont zu werfen und zu sehen, was wahrscheinlich auf sie zukommen wird.

Statistische und quantitative Prognosemodelle

Der heutige quantitative Ansatz für Geschäfts- und Finanzprognosen nimmt viele verschiedene Formen an. Zu den am häufigsten verwendeten Prognosetechniken, die in modernen Prognosesystemen zu finden sind, gehören:

  • ‍NaiverAnsatz: Hierbei wird nur der jüngste Datensatz betrachtet und Vorhersagen getroffen, ohne dass die Informationen angepasst werden.
  • Gleitende Durchschnitte: Durch die Erfassung von Daten aus einer bestimmten Anzahl früherer Zeiträume wird versucht, Schwankungen in den Informationen zu glätten, die möglicherweise durch Anomalien oder einmalige Ereignisse verursacht wurden.
  • Exponentielle Glättung: Bei diesem Ansatz werden Daten aus verschiedenen Zeiträumen berücksichtigt, wobei jedoch die jüngsten Datensätze als am aussagekräftigsten für die Entwicklung der Bedingungen angesehen werden.
  • Trendprojektion: Ziel dieser Technik ist es, die Daten auf Anzeichen von Aufwärts- oder Abwärtstrends hin zu durchforsten und diese auf der Grundlage dessen, was als am wahrscheinlichsten angesehen wird, zu extrapolieren.
  • Autoregressiver integrierter gleitender Durchschnitt (ARIMA): Dieses statistische Modell sagt zukünftige Werte voraus, indem es vergangene Datenpunkte analysiert, Trends identifiziert und Saisonalität und Rauschen korrigiert.

Dank der Berechnungsmöglichkeiten moderner Computer lassen sich diese Techniken leicht in viele Geschäftsprognoseverfahren integrieren. Die Technik steht jedoch selten still, und neue Innovationen führen zu komplexeren und leistungsfähigeren Prognosesystemen.

Prädiktive Analytik und maschinelles Lernen in der Prognostik

Genauso wie die modernen Prognosen ohne die Entwicklung der Computertechnologie nicht möglich wären, verändern die Fortschritte bei neuen Formen der Datenverarbeitung den Prozess weiter. Insbesondere der Aufstieg der künstlichen Intelligenz treibt neue Formen der prädiktiven Analyse voran, die hochpräzise Prognosen ohne menschliches Eingreifen erstellen können. Durch die Nutzung großer Mengen aktueller und historischer Daten können diese Programme und Plattformen in kürzester Zeit Muster erkennen. Durch Hinzufügen fortschrittlicher Algorithmen für maschinelles Lernen ist die Software in der Lage, sich an das, was sie gesehen hat, anzupassen und dieses Wissen auf zukünftige Aufgaben zu übertragen.

Im Kern unterscheidet sich die prädiktive Analytik nicht von dem Prozess der Vorhersage, wie er seit jeher bekannt ist. Bei diesem Prozess werden Informationen aus der Vergangenheit verwendet, um die Zukunft vorherzusagen. Zu Beginn wird das Problem bestimmt, das gelöst werden muss - zum Beispiel, wie viel Bestand sollte ein Geschäft von einem bestimmten Produkt im Vorfeld des Weihnachtsgeschäfts haben?

Von dort aus werden historische Daten gesammelt und in die Software eingespeist. In dem bereits erwähnten Beispiel würde der Einzelhändler Informationen darüber sammeln, wie viele Einheiten des Produkts er in den Monaten November und Dezember verkauft hat, sowie zusätzliche Details, z. B. darüber, wie sich Werbeaktionen oder Rabatte auf diese Verkäufe ausgewirkt haben könnten. Im Allgemeinen gilt: Je detaillierter die Informationen sind, desto effektiver und genauer sind die Analysen. In diesem Fall sollte der Einzelhändler jedoch auch darauf achten, dass er keine unbrauchbaren Daten liefert, die die Ergebnisse verfälschen könnten. Es muss darauf geachtet werden, dass Ausreißer oder Anomalien, die möglicherweise auf Fehler zurückzuführen sind, entfernt werden.  

Sobald alle Daten gesammelt und bereinigt sind, machen sich die Prognosemodelle in der Analysesoftware an die Arbeit. Auf der Grundlage früherer Verkaufsdaten aus ähnlichen Zeiträumen sollte der Algorithmus ein einigermaßen genaues Modell dessen liefern, was der Einzelhändler in Bezug auf den Absatz dieses spezifischen Produkts erwarten sollte. Schließlich kann der Einzelhändler eine fundierte Entscheidung darüber treffen, wie viele Einheiten er vorrätig halten sollte, um die Verbrauchernachfrage zu befriedigen, ohne einen zu großen Bestand zu haben.

Die Implementierung von maschinellem Lernen in Vorhersage-Workflows ist keine einfache Plug-and-Play-Erfahrung und sollte mit Vorsicht angegangen werden. Unternehmen, die alles nutzen wollen, was künstliche Intelligenz zu bieten hat, sollten bei den Daten, die sie für das Training des Modells sammeln, Vorsicht walten lassen und sicherstellen, dass sie sauber und frei von Anomalien, Auslassungen und Ausreißern sind, die den Algorithmus in die falsche Richtung lenken könnten.  

Die Wahl des richtigen Algorithmus für maschinelles Lernen ist eine weitere wichtige Überlegung. Einige der am häufigsten verwendeten Modelle sind:

  • ‍RandomForest: Hierbei wird eine Reihe von Entscheidungsbäumen erstellt, um zu einer einzigen Antwort zu gelangen.
  • Neuronales Netzwerk: Dieses maschinelle Lernmodell wurde entwickelt, um die Art und Weise nachzuahmen, wie das menschliche Gehirn Informationen verarbeitet, und verwendet miteinander verbundene Datenknoten, um Muster zu erkennen und Vorhersagen zu treffen.‍
  • Gradient Boosting: Dieses Modell vergleicht die Vorhersagen einer Reihe von Modellen mit den tatsächlichen Ergebnissen und nutzt die gewonnenen Erkenntnisse, um seine Vorhersagefähigkeiten zu verfeinern.  

Sobald das System seine Arbeit aufgenommen hat, ist es für Unternehmen wichtig, die Ergebnisse genau zu beobachten. Neue Datensätze und Eingaben sollten so schnell wie möglich in das Modell einfließen, damit es auch die Möglichkeit hat, sich neu zu kalibrieren.

Da die Ressourcen, die für KI und maschinelles Lernen eingesetzt werden, immer größer werden, ist zu erwarten, dass diese Technologie zu einem viel wichtigeren Element der Geschäftsprognose wird. Die Fähigkeit des maschinellen Lernens, enorme Datenmengen schnell zu analysieren und extrem detaillierte Modelle zu entwickeln, bedeutet, dass es eine wesentliche Rolle dabei spielen wird, Unternehmen bei der Zukunftsplanung zu unterstützen und ihre Position auf dem Markt zu stärken.

Zeitreihenanalyse in der Prognoserechnung

Unabhängig von der Art des verwendeten Modells basieren die meisten Prognosen, die in der Wirtschaft verwendet werden, auf dem Konzept der Zeitreihenanalyse. Dabei handelt es sich um eine Methode zur Vorhersage künftiger Trends durch die Untersuchung von Daten, die in regelmäßigen Abständen erhoben werden. Diese Intervalle können das Jahr, den Monat, den Tag oder sogar die Stunde umfassen, je nachdem, welche Art von Vorhersage getroffen werden soll.

Im Allgemeinen versucht die Zeitreihenanalyse, Vorhersagen auf der Grundlage von saisonalen Mustern, die auf der Jahreszeit basieren, oder von zyklischen Mustern, die mit einer breiteren Palette von wirtschaftlichen Bedingungen zusammenhängen, zu treffen. So kann ein Einzelhändler beispielsweise beschließen, seine Kaufentscheidungen auf der Grundlage der saisonalen Nachfrage zu treffen. Ein einfaches Beispiel hierfür ist ein Lebensmittelgeschäft, das in Erwartung des Erntedankfestes mehr gefrorene Truthähne bestellt. Andererseits kann eine Konjunkturanalyse dazu beitragen, dass derselbe Lebensmittelhändler aufgrund eines erwarteten Konjunkturabschwungs weniger Bestellungen für höherwertige Produkte tätigt. In beiden Fällen wird die Entscheidung durch die Untersuchung von Daten aus der Vergangenheit getroffen und eine Vorhersage darüber getroffen, was in naher Zukunft eintreten könnte.

Wie bereits erwähnt, ist ARIMA eine gängige Technik für Prognosen mit Zeitreihenanalyse. Es gibt auch eine Variante von ARIMA, bekannt als Seasonal Autoregressive Integrated Moving Average (SARIMA), die speziell für Daten mit erwarteten saisonalen Mustern zusätzlich zu anderen Mustern entwickelt wurde. Das bedeutet, dass nicht nur die aktuellen Datenpunkte mit denen verglichen werden, die ihnen vorausgingen, sondern auch die Saisonalität der Informationen berücksichtigt wird.

Mit den aktuellen Entwicklungen im Bereich des maschinellen Lernens und der künstlichen Intelligenz (KI), die die Welt der Prognosen durchdringen, werden neue Modelle wie Long Short-Term Memory-Netzwerke (LSTMs) geschaffen. Dabei handelt es sich um Varianten neuronaler Netze, die in der Lage sind, langfristige Abhängigkeiten in sequenziellen Daten zu lernen. Dies macht sie äußerst effektiv für Geschäftsprognosen sowie für die Vorhersage von Aktienkursen und Wettermustern.

Herausforderungen bei der Vorhersage und Lösungen

Kein System ist völlig sicher, und selbst die fortschrittlichsten Prognosemodelle können versagen und ohne angemessene Handhabung falsche oder unvollständige Prognosen liefern. Unternehmen, die den größtmöglichen Nutzen aus ihren Prognoseverfahren ziehen wollen, müssen die häufigsten Hindernisse kennen, die diesen Bemühungen im Wege stehen, und wissen, wie sie diese überwinden können. Zu den häufigsten Herausforderungen, mit denen Unternehmen bei der Verbesserung ihrer Prognosegenauigkeit konfrontiert werden, gehören:

  • Datenqualität: Der Satz "Garbage in, garbage out" gilt auch für Prognosen. Datensätze, die mit Ungereimtheiten, Auslassungen und Ungenauigkeiten behaftet sind, können selbst den ausgefeiltesten Algorithmus zum Scheitern bringen. Aus diesem Grund ist die Vorverarbeitung und Bereinigung der Daten ein entscheidender Schritt.
  • Auswahl des Modells: Viele Unternehmen geraten in Schwierigkeiten, weil sich das von ihnen gewählte Prognosemodell als unzureichend für die anstehende Aufgabe erweist. Nicht alle Modelle sind gleich, und die Unternehmen müssen die Möglichkeiten und Grenzen der einzelnen Modelle genau kennen, bevor sie eine endgültige Entscheidung treffen.
  • Externe Faktoren: Bei Prognosen geht es um die Vorhersage der Zukunft, aber das Unerwartete kann jede Vorhersage über den Haufen werfen. Plötzliche wirtschaftliche Umschwünge oder geopolitische Instabilität können bestimmte Vorhersagen praktisch unbrauchbar machen. Deshalb ist es wichtig zu bedenken, dass Prognosen keine exakte Wissenschaft sind, auch wenn sie immer differenzierter und genauer werden.

Ändern Sie das Spiel mit AI-gesteuerten Prognoselösungen von ketteQ

Man braucht kein Orakel mehr, um in die Zukunft zu blicken. Prognosen haben sich in den letzten Jahrzehnten stark weiterentwickelt: Bauchgefühle und fundierte Vermutungen sind datengestützten Erkenntnissen auf der Grundlage komplexer Algorithmen gewichen. Um in der modernen Geschäftswelt wettbewerbsfähig zu bleiben, müssen Sie sich die effektivsten Methoden zunutze machen, die von den neuesten Technologien unterstützt werden.

Als führendes Unternehmen im Bereich der KI-gestützten Prognosen bietet ketteQ eine leistungsstarke Softwareplattform, die es Unternehmen ermöglicht, sich an ihre sich verändernden Herausforderungen anzupassen. Mit den ausgefeiltesten und robustesten prädiktiven Analysen, Echtzeit-Datenverarbeitung und maschinellen Lernfähigkeiten gibt ketteQ Unternehmen wie dem Ihren die umsetzbaren Erkenntnisse, die Sie zur Verbesserung Ihrer Entscheidungsprozesse benötigen.

Wenn Sie mehr darüber erfahren möchten, wie Sie Ihr Unternehmen mit unserer modernen Prognoselösung zukunftssicher machen können, sprechen Sie noch heute mit einem Mitglied unseres Teams.

Auf sozialen Medien teilen:

Über den Autor

Mark Balte
Mark Balte
Vizepräsidentin für Produktmanagement

Mark verfügt über mehr als 38 Jahre Erfahrung in der Lieferkette und leitet visionäre technologische Innovationen, die transformative Prozessänderungen vorantreiben, die zu bedeutenden finanziellen und quantitativen Ergebnissen für Kunden führen. Er ist bekannt für seine einzigartige Fähigkeit, einen visionären strategischen Fahrplan zu formulieren, der Technologien zur Lösung komplexer Herausforderungen in der Lieferkette einsetzt.

Bevor er zu ketteQ kam, hatte Mark wichtige Führungspositionen bei Logility inne, darunter die Gesamtverantwortung für Forschung und Entwicklung, Produktmanagement, Analystenbeziehungen, Thought Leadership und Akquisitionen.

Mark erhielt seinen Bachelor of Science in Mathematik von Sewanee (University of the South) und seinen Master of Science in Operations Research von Georgia Tech.