print logo

2016 kommt Big Data im Mainstream an

Oracle identifiziert die größten Big Data-Trends für das neue Jahr.
deleted | 19.01.2016
Daten sind das Gold des Digitalen Zeitalters. Sie helfen Unternehmen nicht nur ihre Ziele schneller zu erreichen und die Wettbewerbsposition zu stärken, sie ermöglichen es auch, die Kunden besser zu verstehen und Produkte und Services gezielter und schneller an den Markt anzupassen. Im Gegensatz zu Gold ist der Rohstoff Daten aber keineswegs endlich. Ganz im Gegenteil: Etwa alle 18 Monate verdoppeln sich die Terabytes an strukturierten und unstrukturierten digitalen Informationen. Die Herausforderung besteht vielmehr darin, aus dem unüberschaubaren Informationsfluss die wertvollen Körner zu sieben. Lange Zeit war die Nutzung und Analyse von Big Data ein Thema für IT- und Datenspezialisten – diese Ära ist nun vorbei, denn 2016 wird Big Data endlich im Mainstream ankommen. Oracle zeigt, welche Trends uns dieses Jahr rund um Big Data erwarten:

1) Ausgereifte Standardlösungen ersetzen die anfänglichen Spezialsysteme

Big Data-Pioniere hatten keine andere Wahl, als ihre eigenen Cluster und -Umgebungen zu entwickeln. Diese auf Hadoop, Spark oder anderen aufkommenden Technologien beruhenden Spezialsysteme zu entwickeln, zu verwalten und zu warten ist allerdings extrem zeit- und kostenaufwendig. So beträgt die durchschnittliche Entwicklungszeit sechs Monate. So viel Zeit hat heute niemand mehr? Kein Problem, denn dank Cloud-Diensten und Anwendungen mit vorkonfigurierten Automatisierungen und Standards wird 2016 ein sehr viel größerer Anwenderkreis auf ausgereifte Lösungen zugreifen können.

2) Datenvirtualisierung wird Realität


Unternehmen erfassen heute nicht nur eine immer größer werdende Bandbreite an Daten, sie verwenden auch eine Vielzahl an Algorithmen, Analysen und Software-Anwendungen. Entwickler und Analytiker verlieren dadurch schnell mal den Überblick, wo welche Daten gespeichert sind oder haben Probleme mit den Zugriffsverfahren der jeweiligen Repositories. Daher werden Unternehmen 2016 nicht mehr nur auf eine einzelne Technologie setzen. Sie werden zukünftig vermehrt Daten virtualisieren. Die Benutzer und Anwendungen greifen dann über SQL, REST und andere Skriptsprachen auf diese virtualisierten Daten zu. Die richtige Technologie zur Datenvirtualisierung bietet dabei die gleiche Performance wie die nativen Methoden – einschließlich Rückwärtskompatibilität und Sicherheit.

3) Datenstromorientierte Programmierung beschleunigt das Tempo

In den Anfängen des Big-Data-Einsatzes dominierte die manuell programmierte Datenverarbeitung. Neue Verwaltungswerkzeuge bringen nun bessere Voraussetzungen für eine anspruchsvollere Datenverarbeitung mit und werden die ursprünglichen Big-Data-Technologien in den Hintergrund drängen. Darüber hinaus wird sich die datenstromorientierte Programmierung weiter etablieren. Diese setzt auf eine starke Parallelverarbeitung, erleichtert die Wiederverwendung von funktionalen Operatoren und unterstützt nahtlos Funktionen für Statistik und maschinelles Lernen.

4) Big Data wird zur Spielwiese von künstlicher Intelligenz

2016 wird vermehrt künstliche Intelligenz bei der normalen Datenverarbeitung eingesetzt – unter anderem maschinelles Lernen, automatische Texterkennung und Property-Graphen. Auf diese Technologien kann im Big-Data-Umfeld bereits jetzt über API-Bibliotheken zugegriffen werden. Nun werden sie zum Standard in IT-Werkzeugen für Echtzeit-Analysen und Datenwissenschaft.

5) Das Internet der Dinge und die Cloud sind Treibstoff für Big Data

Big Data-Cloud-Dienste sind die heimlichen Treiber des Internets der Dinge (IoT). Cloud Services werden vermehrt Sensordaten erfassen und für Big-Data-Analysen und -Algorithmen bereitstellen. Diese Analysen werden dann beispielsweise in der Entwicklung genutzt. So werden Fertigungsunternehmen mit Hilfe hochsicherer IoT-Cloud-Services Produkte entwickeln, die auf Grundlage von Datenanalysen eigenständig Aktionen ausführen. Eingriffe durch Menschen werden noch seltener nötig.

6) Datenvorschriften fördern die Hybrid Cloud


Je mehr über die Herkunft der Daten bekannt ist – und das bezieht sich nicht nur auf einen Sensor oder eine Datenbank, sondern auch auf die „Nationalität“ der Daten –, desto leichter können Regierungen nationale Datenvorschriften durchsetzen. Internationale Unternehmen, die die Cloud nutzen wollen, geraten dadurch in ein Geflecht widerstrebender Interessen. Daher werden globale Unternehmen zunehmend Hybrid-Cloud-Infrastrukturen und regionale Rechenzentren etablieren. Diese stellen gewissermaßen den lokalen Vertreter eines größeren Cloud-Dienstes dar. Damit senken Unternehmen nicht nur Kosten, sondern stellen auch die Compliance sicher.

Fazit

An Big Data führt kein Weg mehr vorbei. Die Werkzeuge für datenbasierte Entscheidungen stehen bereit. Jetzt liegt es an den Unternehmen, schnell Nutzen aus den neuen Möglichkeiten zu ziehen. Im Jahr 2016 wird sich die Spreu vom Weizen trennen. Nur Unternehmen, die aus ihren Daten schnell die richtigen Erkenntnisse ziehen, werden sich im globalen Wettbewerb behaupten können.