Was ist Big Data?

Big Data Definition

Laut Wikipedia ist Big Data "ein allumfassender Begriff für jede Sammlung von Datensätzen, die so groß oder komplex sind, dass es schwierig wird, sie mit herkömmlichen Anwendungen zur Datenverarbeitung zu bewältigen". Bei Teradata wird Big Data oft in Form von mehreren "Vs" beschrieben – Volumen, Variabilität und Vielfalt der Daten; dazu Velocity (Geschwindigkeit), also die Zeitspanne, in der Daten erstellt werden; und Veracity (Wahrhaftigkeit), also die Integrität und Genauigkeit der Daten –, die für die Komplexität und Schwierigkeit stehen, Big Data zu sammeln, zu speichern, zu verwalten, zu analysieren und anderweitig einzusetzen, um das wichtigste "V" von allen, Value, also Wert, zu schaffen. Im heutigen Business mit hohen Einsätzen verlassen sich führende Unternehmen – also solche, die sich differenzieren, sich zu übertreffen versuchen und sich schneller als Wettbewerber an die Bedürfnisse der Kunden anpassen – auf Big Data-Analysen. Sie sehen, wie die zielgerichtete, systematische Nutzung von Big Data, gepaart mit Analysen, Chancen für bessere Geschäftsergebnisse aufzeigen.

Reifen Unternehmen helfen Big Data-Analysen in Verbindung mit künstlicher Intelligenz (KI) und/oder maschinellem Lernen, noch komplexere geschäftliche Herausforderungen zu lösen:

Kundenerfahrung: Verschaffen Sie sich einen Wettbewerbsvorteil, indem Sie kundenorientiert sind und die Customer Journey optimieren

Finanzielle Transformation: Liefern Sie neuen Unternehmenswert und strategischen Input durch Finanz- und Buchhaltungsprozesse

Produktinnovation: Erstellen und iterieren Sie Produkte, die sicherer, gefragter und profitabler sind

Risikominderung: Minimieren Sie das Risiko von Finanzbetrug und Cybersicherheit

Asset-Optimierung: Optimieren Sie den Anlagenwert durch die Nutzung von IoT- und Sensordaten

Operative Exzellenz: Erzielen Sie Spitzenleistungsvorteile durch die Nutzung von Personal, Ausrüstung und anderen Ressourcen

Wie man Big Data zum Laufen bringt

Big Data wird oft als Datensatz-Sammlung definiert, die so groß oder komplex ist, dass sie kaum mit Standardtools verarbeitet werden kann. Selbst Unternehmen, die voll und ganz auf Big Data setzen, einen Business Case definiert haben und bereit sind, über die Phase des "Wissenschaftsprojekts" hinaus zu gehen, müssen herausfinden, wie Big Data funktioniert.

Der massive Hype und die große Auswahl an Big Data-Technologien und -anbietern machen es schwierig, die richtige Antwort zu finden. Ziel muss es sein, eine basale Big Data-Umgebung zu entwerfen und aufzubauen, die kostengünstig und komplex ist. Das ist stabil, hochintegriert und skalierbar genug, um das gesamte Unternehmen in Richtung echter Daten- und Analysezentrierung zu bewegen. Mit Daten und Analytics im Zentrum kann die Leistungsfähigkeit von Big Data und Big Data-Analysen allen Teilen des Unternehmens zur Verfügung stehen. Mit einer basalen Infrastruktur, Datenströmen und Toolsets, die erforderlich sind, um wertvolle Erkenntnisse zu gewinnen, bessere Entscheidungen zu treffen und echte Geschäftsprobleme zu lösen.

Big Data als Motor

Um mit Big Data zu beginnen, müssen Sie Big Data wie einen Motor betrachten. Um die Leistung zu steigern, sollten die richtigen Komponenten nahtlos, stabil und nachhaltig zusammenarbeiten. Zu diesen Komponenten gehören:

Datenquellen: Betriebs- und Funktionssysteme, Maschinenprotokolle und Sensoren, Web und Social und viele andere Quellen.

Datenplattformen, Warehouses und Discovery-Plattformen: Ermöglichen die Erfassung und Verwaltung von Daten und dann – entscheidend – deren Umwandlung in Kundeneinblicke und letztendlich in Maßnahmen.

Big Data Analytics Tools und Apps: Das "Frontend", das von Führungskräften, Analysten, Managern und anderen verwendet wird, um auf Kundeneinblicke zuzugreifen, Szenarien zu modellieren oder anderweitig ihre Arbeit zu erledigen und das Geschäft zu verwalten.

Auf dieser Ebene geht es darum, die volle Leistung von Big Data-Assets zu nutzen, um Geschäftswert zu schaffen. Damit alles zusammenarbeitet, bedarf es eines strategischen Big Data-Designs und einer durchdachten Big Data-Architektur, die nicht nur aktuelle Datenströme und Repositories untersucht, sondern auch spezifische Geschäftsziele und längerfristige Markttrends berücksichtigt. Mit anderen Worten, es gibt nicht nur eine Vorlage, um Big Data zum Laufen zu bringen.

Da Big Data morgen an Bedeutung zulegen wird, sollten diese Infrastrukturen als Grundlage für zukünftige Operationen angesehen werden. Und ja, die Kapitalausgaben dafür können erheblich sein. Viele zukunftsorientierte Unternehmen und Early Adopters von Big Data sind jedoch zu einer überraschenden – und etwas kontraintuitiven – Schlussfolgerung gekommen: Dass die Gestaltung der richtigen Big Data-Umgebung zu Kosteneinsparungen führen kann. Apropos Überraschungen: Diese Kosteneinsparungen können angenehm groß und relativ bald fällig sein.

Es ist wichtig zu beachten, dass Big Data-Technologien und -Programme mit flexiblen Frameworks mehrere Teile des Unternehmens unterstützen und den Betrieb im gesamten Unternehmen verbessern können. Andernfalls besteht die reale Gefahr, dass selbst fortgeschrittene und ehrgeizige Big Data-Projekte als gestrandete Investitionen enden. Gartner schätzt, dass 90 Prozent der Big Data-Projekte unternehmensweit genutzt oder repliziert werden.

Attribute hocheffektiver Big Data-Umgebungen

Nahtlose Verwendung von Datensätzen: Ein Großteil des Wertes kommt durch das Mischen, Kombinieren und Kontrastieren von Datensätzen – so dass es ohne Integration keine analysegestützte Innovation gibt.

Flexibel, kostengünstig: Das Ziel hier ist eine geringe Komplexität und niedrige Kosten mit genügend Flexibilität, um für zukünftige Anforderungen zu skalieren, die sowohl größer als auch stärker auf bestimmte Benutzergruppen ausgerichtet sind.

Stabil: Stabilität ist von entscheidender Bedeutung, da die Datenmengen enorm sind und Benutzer problemlos auf Daten zugreifen und mit ihnen interagieren müssen. In diesem Sinne ist die Infrastrukturleistung ein Schlüssel zur Steigerung der Geschäftsleistung durch Big Data.

Big Data Integration: Die wichtigste Variable

Eine begrenzte Wiederverwendbarkeit ist zu einem großen Teil eine Funktion schlechter Integration. Integration ist damit die wichtigste Variable für den Erfolg von Big Data.

Forrester Research hat geschrieben, dass 80 Prozent des Wertes von Big Data durch Integration erzielt werden. Die Idee dahinter ist, dass Big Data mit dem höchsten Wert für die richtigen Benutzer leicht zugänglich ist und über robuste und klar definierte Geschäftsregeln und Governance-Strukturen verfügt. Tiefere Datensätze – Legacy-Transaktionsdaten und Long-Tail-Kundenhistorien – benötigen möglicherweise nur zuverlässige Speicherung und robustes Datenmanagement, sodass Datenwissenschaftler und Datenforscher sie überprüfen und modellieren können, wenn dies sinnvoll ist.

Bei der Big Data-Integration geht es auch darum, groß zu denken. In diesem Fall bedeutet "groß" ganzheitlich, inklusiv und multidimensional. Punkte müssen miteinander verbunden, Dateninseln überbrückt und funktionale Silos ineinandergesteckt (wenn nicht sogar vollständig aufgeschlüsselt) werden.

Hoher Integrationsgrad; gut gestaltete Ecosysteme; einheitliche Architekturen; Daten- und Analysezentrierung. Diese kurze Liste zählt nicht unbedingt jede Komponente oder jedes technische Detail auf, damit Big Data-Programme funktionieren. Aber sicherlich sind dies Attribute, die sicherstellen, dass Big Data-Programme effektiv arbeiten.