Big Data erfolgreich implementieren | stores+shops

Anzeige
{{{name}}}

Vorgeschlagene Beiträge

Anzeige

Vor der Einführung von Big-Data-Technologie sollten Händler prüfen, ob und wie eine Applikation aktuell die Anforderungen der Anwender im Rahmen eines bestimmten Geschäftsprozesses unterstützt. (Foto: Progress)

Big Data erfolgreich implementieren

Big-Data-Umgebungen ermöglichen Flexibilität und Skalierbarkeit, um große Datenmengen zu erfassen und auszuwerten. Anwendungsentwickler Progress erläutert fünf Best Practices bei der Implementierung von Big Data Projekten.

1. Ziele eines Geschäftsprozesses verstehen

Entsprechen langjährig genutzte Applikationen nicht mehr den Leistungserwartungen, entsteht der Wunsch einer Migration auf ein anderes aktuelles Betriebssystem oder nach einer versionsmäßigen Erneuerung. Vor der Einführung von Big-Data-Technologie sollten Händler prüfen, ob und wie eine Applikation aktuell die Anforderungen der Anwender im Rahmen eines bestimmten Geschäftsprozesses unterstützt. Big-Data-Technologien können die Möglichkeiten bieten, die betriebswirtschaftlichen Ziele einer Applikation genauer, schneller und umfassender zu erreichen.

2. Benötigte Datenquellen ermitteln

Die Ziele eines Geschäftsprozesses zu kennen bietet eine Basis, um dafür benötigte Daten und die Skalierbarkeit besser beurteilen zu können. Die Einführung von Big-Data-Technologien sollte daher auch als Anlass dienen, zusätzliche Datenquellen zu ermitteln, mit denen sich die Effizienz von Geschäftsprozessen steigern lässt. Eine Applikation zur Analyse des Kundenverhaltens profitiert beispielsweise von Daten der Verkaufshistorie, Daten aus dem Customer Service, vorhandenen oder neu zu erstellenden Kundenprofilen oder einer Auswertung von Social-Media-Aktivitäten und -Kommentaren.

3. Überprüfbare Performancekriterien definieren

Performancewerte festzulegen ermöglicht einen Soll-Ist-Vergleich und ein frühzeitiges Gegensteuern bei Abweichungen. Das betrifft etwa schnellere Zugriffszeiten auf Daten oder die Unterstützung einer größeren Anzahl von Benutzern zur gleichen Zeit.

4. Skalierbarkeit berücksichtigen

Die Anforderung nach einer höheren Performance ist eng mit der Skalierbarkeit verbunden, so dass bei allen Überlegungen zur Verbesserung der Performance auch die Auswirkungen auf die Skalierbarkeit beachtet werden sollten. „Linear skalierbar" bedeutet, dass sich bei einer Verdopplung der CPU-Leistung oder der Speicherkapazität auch die doppelte Performance ergibt. In der Praxis hat die Skalierung der Speicherkapazität mehrere Dimensionen: Auch die physischen Speichersysteme zur Steuerung der einzelnen Festplatten und die CPU-Leistung müssen beispielsweise ausgebaut werden. Dies erfordert eine Kostenanalyse der einzelnen Komponenten, um die angestrebte Performance betriebswirtschaftlich rechtfertigen zu können.

5. Bedarf an Datenintegration bewerten

Die Performance und Skalierbarkeit bei wachsendem Datenvolumen zu steigern und zugleich diverse Datentypen zu berücksichtigen stellt für die Datenintegration einer Herausforderung dar. In kleinen bis mittelgroßen Big-Data-Projekten ist es von Nutzen, die Datenintegration zu erproben und die damit verbundenen Prozesse und Architekturen zu etablieren. Diese können auf größere Projekte übertragen werden. Werden Daten in eine Big-Data-Umgebung integriert, sollte auch der umgekehrte Zugang bedacht werden. Zudem gilt es, einen standardisierten Zugriff auf NoSQL-Datenbanken und eine Hadoop-Umgebung sicherzustellen, damit auch vorhandene Applikationen Big Data-Analysen nutzen können. Um eine hohe Flexibilität zu erzielen, sollten die eingesetzten Technologien strukturierte und unstrukturierte Daten unterstützen, eine hohe Verfügbarkeit bieten und plattformunabhängig einsetzbar sein – On-Premise, in der Cloud und in hybriden Architekturen.

Foto: Progress

Weitere Informationen: www.progress.de

Medium Rectangle Technology 1

Anzeige

Produkt-News