The next Big (Data) Thing: Diese fünf Datentrends solltest du im Blick behalten

Dateninfrastruktur
Big allein reicht nicht mehr, es wird „huge“. Um in der stetig steigenden Datenflut den Überblick zu behalten, braucht es neue und richtig große Datenanwendungen. Es gilt, die kommenden Trends und Möglichkeiten schon jetzt auf dem Schirm zu haben und in eine nachhaltige Unternehmensstrategie einzubinden. Wir haben die wichtigsten Entwicklungen zusammengefasst.

Die Menge der täglich erzeugten Daten nimmt exponentiell zu. Aktuelle Zahlen von Statista besagen, dass das weltweite Datenvolumen im Jahr 2025 etwa 175 Zettabyte (175 Milliarden Gigabyte) betragen wird. 2018 waren es „gerade einmal“ 33 Zettabyte. Rund 80 Prozent der Gesamtmenge machen dabei Daten aus, die in Unternehmen gelagert werden. Die Bewältigung der Datenflut wird damit zum wichtigsten Aspekt einer ganzheitlichen Digitalisierungsstrategie. Der Schlüssel: Big Data.

Bereits jetzt kommen Big-Data-Anwendungen in vielen Geschäftsbereichen gewinnbringend zum Einsatz. Bedeutung und Anforderungen nehmen in nächster Zeit allerdings noch enorm zu: „Die Größe und Komplexität, die verteilte Art der Daten, die Schnelligkeit des Handelns und die ‘Continuous Intelligence’, die das digitale Geschäft erfordert, lassen starre und zentralisierte Architekturen und Tools zusammenbrechen. Das weitere Überleben eines jeden Unternehmens wird von einer agilen, datenzentrierten Architektur abhängen, die auf die ständige Veränderung reagiert“, lautet die deutliche Ansage von Gartner Vice President und Analyst Donald Feinberg. Eben dafür sind aus unserer Sicht in Zukunft fünf Trends entscheidend.

#1 Edge Computing und 5G-Kommunikation

Unter Edge Computing versteht man ein Mesh-Netzwerk von Mikro-Rechenzentren, die Daten lokal verarbeiten oder speichern und an ein zentrales Rechenzentrum oder ein Cloud-Repository übertragen. Ein einzelner „Edge Computer“ ist dabei kein neues Hardware-Teil, sondern ein mit dem Netzwerk oder (Industrial) Internet of Things verbundenes „Ding“: Produktionsmaschinen und Devices, Automobile und Flugzeuge können alle als „edge“ betrachtet werden. Sie liefern Daten für den laufenden Betrieb auf der einen Seite und für die Analyse und Verbesserung, etwa per digitalem Zwilling, auf der anderen. Edge Computing ist somit eine Infrastruktur, die es erlaubt, enorme Datenmengen „am Rand (at the edge) des Netzwerks“ – daher der Name – bzw. so nah wie möglich an der Quelle und so schnell wie möglich im Prozess zu verarbeiten.

Die 5G-Kommunikation stellt eine wesentliche Komponente dieses Prozesses dar. Ihre höheren Geschwindigkeiten, die geringere Latenzzeit und die größere Kapazität machen das IoT überhaupt erst möglich. Und dessen Maschinen sind wiederum am besten in der Lage, die Eigenschaften von 5G zu nutzen und zu optimieren. Bandbreite und Geschwindigkeit von 5G werden insbesondere im Industrierahmen ganz neue Möglichkeiten eröffnen. So können etwa Roboter effektiver und reaktionsschneller in intelligenten Fabriken eingesetzt werden. Kleinere und dedizierte Rechenzentren vor Ort werden Entscheidungen schneller treffen und KI-Technologien besser nutzen können.

#2 Big Data wird zu Huge Data

Die enormen Datenmengen nehmen auch aufgrund von neuen industriellen Sensoren und Internet-fähigen Wearables rapide zu. Diese schicken kontinuierlich derartige Massen, dass man laut Autor Kevin Coleman die Begrifflichkeiten ändern muss: „Big Data war eine harmlose Epoche, die wirklichen Daten-Herausforderungen kommen erst jetzt in Form von Huge Data.“

Damit gehen neue Herausforderungen in der Datensicherung und -speicherung einher: Echtzeitdaten werden im Sekundentakt durch Sensoren eingespielt und wollen verarbeitet und gespeichert werden. Langfristig müssen wir daher effizientere Wege finden, diese Datenmengen anschließend zu speichern. Mehr und größere Datenspeicher, komprimierte Daten oder zwecks direktem Datenaustausch verbundene Maschinen sind mögliche Lösungsansätze. Denkbar sind allerdings auch neue Richtlinien und Regularien. So könnte beispielsweise ein „Verfallsdatum“ für Daten gesetzlich beschlossen werden, ab dem sie gelöscht werden müssen.

#3 Sofortige Datenverarbeitung über Persistent Memory Server

In Zukunft bieten In-Memory-Computing-fähige (IMC) Architekturen eine gute Möglichkeit zur „Instant“-Datenverarbeitung. Neue Technologien für nicht-flüchtige oder auch persistente Speicher werden ermöglichen, solche Architekturen kostengünstig und mit geringem Komplexitätsgrad einzuführen.

Gerade persistente Speicher – eine neue zusätzliche Speicherschicht zwischen DRAM- und NAND-Flash-Speicher – werden die kostengünstige Massenspeicherung bei Hochleistungs-Workloads sicherstellen und positive Auswirkungen auf die Anwendungsleistung, Verfügbarkeit, Bootzeiten, Clustering-Methoden und Sicherheitsverfahren haben. Außerdem können sie Unternehmen dabei helfen, die Komplexität ihrer Anwendungen und Datenarchitekturen zu reduzieren, indem die Notwendigkeit der Datenduplikation minimiert wird.

#4 Kontinuierliche Intelligenz verbessert den Analyseablauf

Für Unternehmen zählt es schon jetzt mehr denn je, Analysen schnell durchzuführen und auszuwerten. Dafür benötigen sie zeitnahe und ununterbrochene Informationen aus all ihren verfügbaren Daten. Unabhängig von der Anzahl der Datenquellen oder der Größe der Datenvolumina.

Schlüssel hierzu ist die Kontinuierliche Intelligenz (Continuous Intelligence, CI). Ein moderner maschinengesteuerter automatisierter Ansatz, der es ermöglicht, schnell und reibungslos auf aktuelle und historische Daten zuzugreifen, um benötigte Analysen zu beschleunigen und damit fortwährend Businessnutzen zu generieren.

Laut Gartner wird bis 2022 mehr als die Hälfte der neuen Geschäftssysteme über kontinuierliche Informationen verfügen, die Echtzeit-Kontextdaten für ihre Entscheidungen nutzen.

#5 Datenstruktur im Unternehmen neu denken

Unter allen aufgeführten Trends ist dieser eigentlich längst überfällig: Um den anstehenden veränderten Anforderungen erfolgreich zu begegnen, brauchen Unternehmen schon jetzt eine ganzheitliche Datenstruktur. Diese muss den Austausch von Daten ermöglichen, die zumeist in verteilten Datenumgebungen und „Datensilos“ vorliegen.

Zur Bewerkstelligung benötigen Unternehmen das richtige Datenmanagement: Ein einheitliches und konsistentes Framework für den nahtlosen Datenzugriff und die gezielte Verarbeitung über einen ansonsten isolierten Speicher. Damit schaffen sie die entscheidende Voraussetzung, schnellstmöglich auf wechselnde Marktgegebenheiten reagieren und sich entscheidende Wettbewerbsvorteile sichern zu können.

Wir haben dafür eine Lösung entwickelt, die Unternehmen optimal beim Datenmanagement unterstützt und genau diese Funktionen bietet. Unsere Self-Service Big Data Plattform befähigt die Fachabteilungen, schnell und einfach auf alle Datenpools innerhalb der Organisation und auf externe Datenquellen zuzugreifen. Verarbeitungsbereit konvertiert und gespeichert. Zudem verfügt sie über eine Schnittstelle zu angebundenen Analyse- und Reporting-Tools, um relevante Daten selbständig und kurzfristig zu analysieren und auszuwerten.

Du möchtest mehr erfahren? In unserem aktuellen Whitepaper haben wir alle wichtigen Informationen rund um Datenmanagement und Self-Service Big Data zusammengefasst.

JETZT KOSTENLOS HERUNTERLADEN

Autor: The unbelievable Machine Company
Veröffentlichungsdatum: 04.10.2019
Bildrechte: royalty-free @ pexels.com
Original-Beitrag: https://www.unbelievable-machine.com/the-next-big-data-thing-diese-fuenf-datentrends-solltest-du-im-blick-behalten/




Ähnliche Beiträge