Anzeige
Omikron
Schnelle Analyse von Massendaten nahezu in Echtzeit (Foto: kentoh)
A- A A+
Analytics  |

Bestände optimieren mit Big Data

Im September 2015 wurde das Foto eines leergeräumten Rewe-Marktes im nordrhein-westfälischen Jüchen prompt zum Facebook-Hit. Schuld an den meterlangen Regallücken war nicht unzureichendes Bestands- und Bestellmanagement, sondern vielmehr die Hilfsbereitschaft des Betreibers. Er hatte spontan mehrere nachts eingetroffene Busse mit Flüchtlingen mit Lebensmitteln und Hygieneartikeln versorgt. Was dem Supermarkt in diesem Fall positive Presse und Sympathiepunkte bei den Kunden einbrachte, gilt es ansonsten dringend zu vermeiden. Im Tagesgeschäft wirken sich Out-of-Stock- und Out-of-Shelf-Ereignisse nur negativ auf Umsätze und Kundenzufriedenheit aus.  

Angesichts von 70 Mio. Dispositionsentscheidungen täglich setzt ein Unternehmen wie die Rewe Group auf immer leistungsfähigere IT, um das Bestands- und Regalmanagement zu optimieren. Moderne Big Data-Technologie könnte in puncto Prognosequalität und Entscheidungsgeschwindigkeit künftig für einen Quantensprung sorgen. „Big Data hilft uns bereits dabei, Out-of-Shelf-Situationen rechtzeitig zu erkennen“, sagt Thomas Friedl von Rewe Systems. Im Rahmen eines Vortrags auf den EHI Technologietagen 2016 erläuterte der Geschäftsführer der unternehmenseigenen IT-Tochter gemeinsam mit dem Analytics-Experten Sven Weishaupt, wie der Aufbau einer analytischen Plattform bei Rewe dazu beitragen soll, die Geschäftsprozesse des Handelsunternehmens weiter zu optimieren.

Akuter Lücken-Verdacht

Um Regallücken frühzeitig zu erkennen und aufzufüllen werden beispielsweise die auf Basis historischer Abverkaufsprofile errechneten Abverkaufserwartungen zeitnah mit den tatsächlichen Abverkäufen verglichen. Im Rahmen eines erfolgreichen Probelaufs in drei der bundesweit 7.500 Märkte erfolgte dieser Abgleich nahezu in Echtzeit, nämlich binnen 2-5 Minuten. Das Prinzip: Weichen die tatsächlichen Abverkäufe deutlich von den errechneten ab, obwohl laut Warenwirtschaft der betroffene Artikel vorrätig ist, besteht akuter „Lücken-Verdacht“. In diesem Fall wird automatisch über das Task Management-System für die Mitarbeiter vor Ort in dem betroffenen Markt eine Meldung generiert, die daraufhin den Regalbestand kontrollieren und den fehlenden Artikel bei Bedarf schnell auffüllen.  

Ein weiteres Big Data-Pilotprojekt bei Rewe zielt darauf ab, die Prognosequalität weiter zu verbessern, um Out-of-Stock-Situationen zu vermeiden. Hintergrund: Alle Rewe- und Penny-Märkte nutzen eine zentrale Marktdisposition („zDispo“), die auf Basis von tatsächlichen Abverkäufen automatische Nachbestellungen generiert. Ergänzt wird die selbstentwickelte Software durch ein Prognosetool („pRISma“), das neben historischen Abverkaufsdaten auch aktuelle Trends, Wettereinflüsse, besondere Ereignisse wie Feiertage, Geldwochenenden, Aktionen sowie standortbezogene Besonderheiten, beispielsweise Standort in einem Feriengebiet berücksichtigt. Zusätzlich können die Filialverantwortlichen aber auch manuell in den Bestellprozess eingreifen und erwartete Zusatzbedarfe einstellen. Anhand des Artikels „Sekt halbtrocken“ wurde im Rahmen des Big Data-Pilotprojekts 2016 exemplarisch für einen Penny-Markt untersucht, inwieweit solche manuellen Eingriffe tatsächlich eine Verbesserung bewirken. „Dabei hat sich herausgestellt, dass nur zehn Prozent der manuell eingestellten Zusatzbedarfe Angriffe der Reserve verhindern konnten“, berichtet Sven Weishaupt.

Prognosegüte

Das bedeutet umgekehrt: Intelligente, selbstlernende Algorithmen können sowohl Überbestände als auch Out-of-Stocks vielleicht schon bald zuverlässiger verhindern als manuelle Eingriffe in die Auto-Dispo. Die kontinuierliche Analyse der Prognosegüte steht deshalb auch 2017 auf der Agenda bei Rewe Systems. U.a. ist der Aufbau eines Cockpits zur Real-Time-Beobachtung der Prognosegüte geplant. Im Rahmen einzelner Big Data-Projekte sollen zudem beispielsweise Aktionsprofile verbessert oder die Reaktionsgeschwindigkeit auf Abverkaufsänderungen bei verderblicher Ware wie Obst & Gemüse gesteigert werden. Die bestehende Data Warehouse-Architektur auf Basis von Teradata und die verwendete Business Intelligence Software von Microstrategy wird dazu um eine analytische Plattform des Big Data-Experten SAS erweitert. Angesichts des guten Preis-Leistungs-Verhältnisses sollen für das Bereitstellen und Verarbeiten von Massendaten künftig auch Elemente des Open-Source-Frameworks Hadoop (siehe Infokasten) genutzt werden, so Thomas Friedl.  

Nicht nur bei Rewe ist die Automatisierung von Entscheidungen und Prozessen inzwischen ein zentrales IT-Thema. Auch die Discounter Aldi Süd und Nord sowie Lidl stellen ihre IT-Landschaft derzeit zugunsten schnellerer und besserer Entscheidungen auf Standard-Warenwirtschaftssysteme um, ergänzt um In-Memory-Datenbanken und Big Data-Software. Gegenüber der „Lebensmittel Zeitung“ gab sich Mitte 2016 der Lidl-Vorstandschef Sven Seidel überzeugt, dass Daten und die Informationen daraus künftig bessere Management-Entscheidungen bewirken. Der Discounter investiert einen zweistelligen Millionen-Betrag in den Aufbau einer Big Data-Architektur.  

Die Bedeutung menschlicher Intuition für die Entscheidungsfindung nehme in dem Maße ab, in dem neue Methoden und Algorithmen erfolgreich entwickelt werden, heißt es auch in einer Studie der Technologieberatung Bearing Point gemeinsam mit dem Institut für Internationales Handels- und Distributionsmanagement IIHD zur Digitalisierung im Handel (Revolution Retail 4.0). „Unter sich angleichenden Rahmenbedingungen gewinnt derjenige, der die richtigen Entscheidungen schneller trifft und umsetzt als der Wettbewerb“, meint der Studienautor Rene Sehi vom IIHD. Neben treffgenaueren Absatzprognosen und automatischer Disposition könnte sich intelligente, selbstlernende Analytics-Software künftig auch verstärkt für die Preisoptimierung etablieren. Zu den Vorreitern im deutschen Handel gehören hier die Onlineshops der Otto Group. Elektronische Regaletiketten schaffen allerdings auch im stationären Handel die technischen Voraussetzungen für Preiskalkulationen ohne Bauchgefühl.

Foto (1): kentoh

Weitere Informationen: redaktion@remove-this.ehi.org

Hadoop als Basis

Hadoop, ein Projekt der Apache Software Foundation, ist ein frei verfügbares Java-Framework für skalierbare, verteilt arbeitende Anwendungen.  

Es besteht aus einer Sammlung von Komponenten für die Verwaltung, den Zugriff und die Analyse strukturierter und unstrukturierter Daten und bietet die Möglichkeit, sehr große, heterogene Datenmengen zu verwalten. Somit eignet sich Hadoop als kostengünstige Plattform zur Umsetzung von Big Data-Aufgaben. Laut einer aktuellen Studie des Business Application Research Centers BARC hat sich die Zahl der Anwender im deutschsprachigen Raum 2016 verdoppelt. 8 Prozent aller Unternehmen haben danach Hadoop bereits im produktiven Einsatz, bei weiteren 25 Prozent laufen Pilotprojekte oder sind zumindest geplant. Customer Intelligence und Predictive Analytics sind laut BARC die mit Abstand am häufigsten umgesetzten Hadoop-Projekte. Predictive Analytics gilt als Vorzeigedisziplin für „neuartige“, explorative Analysen und wird daher in Unternehmen häufig zuerst angegangen.

Quelle: BARC Research Studie „Hadoop und Data Lakes“