print logo

10 Data & Analytics Trends, die Euer Business verändern (werden)

Hey, Zukunftsdenker: Diese 10 Daten & Analytics Trends werden in den nächsten drei bis fünf Jahren Euer Business verändern!
ODOSCOPE GmbH | 12.11.2019
Trends-Innovation © ODOSCOPE GmbH
 

Daten werden in fast allen Branchen in unvorstellbaren Mengen generiert und gesammelt. Weltweit wird laut IDC Bericht die Datenmenge von 33 Zettabyte in 2018 auf 175 Zettabyte im Jahr 2025 anwachsen. Zur Einordnung: 175 Zettabyte = 175 Billionen Gigabyte – das ist eine Zahl mit 12 Nullen!

Doch selbst große Unternehmen mit hohen Budgets und großen Teams stehen aktuell noch vor vielen ungelösten Herausforderungen bezüglich der Verarbeitung, Auswertung und effizienten Nutzung dieser Datenberge. Zukunftsträchtige Lösungsmöglichkeiten für diese Herausforderungen halten die Gartner Trends 2019 bereit. Das US-Analyse- und Beratungsunternehmen Gartner ist bekannt für seine tiefgehenden Studien wie den „Magic Quadrant“ und Technologie-Prognosen wie die „Hype Cycles“.

Die folgenden 10 Daten & Analytics Trends werden in den nächsten drei bis fünf Jahren Euer Business verändern. Fach- und Führungskräfte in diesen Bereichen oder angrenzenden Branchen (z.B. E-Commerce, Marketing, IT oder Consulting) sollten diese Trends daher auf ihr Disruptionspotenzial für das eigene Marktumfeld oder Tätigkeitsfeld untersuchen. Denn Vorsicht ist ja bekanntlich besser als Nachsicht!

 

Für weitere Expertenmeinungen und spannende Praxistipps rund um das Thema Customer Experience, steht unser Whitepaper zur datengetriebenen Customer Experience Optimierung kostenlos zur Verfügung!

 

1. Augmented Analytics

Datenanalyse ist komplex und erfordert im Allgemeinen einen oder mehrere Data Scientists, die Mehrwert aus großen Datenmengen extrahieren können. Die Komplexität ist meist darauf zurückzuführen, dass Daten aus einer Reihe von unterschiedlichen Quellen wie Webanalyse, ERP, PIM, Marketingsoftware oder Social Media gesammelt werden.

Aufgrund des hohen manuellen Aufwands für die Aufbereitung, Bereinigung und Zusammenführung von Daten, verbringen Data Scientists ihren Großteil der Zeit mit solchen Aufgaben – schätzungsweise bis zu 80%. Hier kann Augmented Analytics helfen, Arbeitsaufwände mithilfe von Machine Learning zu reduzieren. Data Scientists können dadurch mehr Arbeit in die Suche nach umsetzungsfähigen Insights investieren.

Bis 2020 wird Augmented Analytics ein dominanter Treiber für Kaufentscheidungen von Analytics und Business Intelligence sowie von Data Science und Machine Learning Plattformen sein. Auch der Data Consultant Marc Preusche bezeichnete Augmented Analytics im Experteninterview als einen der Trends im Rahmen der Customer Experience Optimierung.

 

2. Augmented Data Management

Auch mit Augmented Data Management lässt sich der oben beschriebene manuelle Aufwand erheblich reduzieren – insbesondere bei der Bereinigung und Zusammenführung von großen Datenmengen aus unterschiedlichen Quellen. Bis 2022 könnten die manuellen Aufgaben des Datenmanagements durch maschinelles Lernen und automatisierte Workflows laut Gartner um 45% reduziert werden. Diese Unterstützung bei der Datenaufbereitung wird Augmented Data Management genannt.

3. Continuous Intelligence

Bis 2022 werden mehr als die Hälfte aller großen neuen Geschäftssysteme über Continuous Intelligence verfügen. Diese soll Echtzeit-Kontextdaten nutzen, um Entscheidungen zu verbessern. Continuous Intelligence kombiniert also Rohdaten und Analysen mit transaktionalen Geschäftsprozessen und anderen Echtzeit-Interaktionen. Es werden hierfür Methoden wie Event Stream Processing (ein Verfahren zur Echtzeit-Analyse), Business Rule Management (regelbasierte Entscheidungssysteme) und natürlich auch Machine Learning genutzt. Continuous Intelligence lässt sich außerdem durchaus als eine Weiterentwicklung von Operational Intelligence bezeichnen.

 

4. Erklärbare KI

Künstliche Intelligenz (kurz KI) ist in aller Munde. Doch undurchsichtige KI-Anwendungen könnten potenziell auch Schaden anrichten. Daher werden über 75% der großen Unternehmen bis 2023 eigene Spezialisten für künstliche Intelligenz in den Bereichen wie IT-Forensik oder Datenschutz einstellen, um das Marken- und Reputationsrisiko für ihre Unternehmen zu reduzieren.

Mithilfe von Augmented Analytics werden verstärkt automatisch generierte Insights und Modelle genutzt. Die Erklärbarkeit dieser Insights und Modelle (z.B. deren Herleitung) ist allerdings entscheidend für das Vertrauen, die Einhaltung gesetzlicher Vorschriften und das Management der Markenreputation. Denn unerklärbare Entscheidungen, die von Algorithmen getroffen werden, lösen sicherlich bei den meisten Menschen keine Begeisterungsströme aus. Außerdem wird einigen KI-Anwendungen nachgesagt bestimmte Vorurteile zu verstärken bzw. aus Trainingsdaten zu „erlernen“.

Als erklärbare KI (im Original Explainable AI) bezeichnet man Modelle, deren Stärken und Schwächen identifiziert werden können. Das wahrscheinliche Verhalten eines solchen Modells kann genauso vorhersagt werden wie mögliche Verzerrungen. Eine erklärbare KI macht Entscheidungen eines deskriptiven, prädiktiven oder präskriptiven Modells also transparenter. So können wichtige Faktoren wie die Genauigkeit, Fairness, Stabilität oder Transparenz einer algorithmischen Entscheidungsfindung sichergestellt werden.

5. Graph Analytics

Die Nutzung von analytischen Grafikverarbeitungen und Grafikdatenbanken wird bis 2022 jährlich um 100% wachsen. So kann insbesondere die visuelle Datenaufbereitung kontinuierlich beschleunigt werden. Das ermöglicht komplexere Data Science Aufgaben schneller auszuführen.

Graph Analytics beschreibt eine Reihe von analytischen Techniken, die es ermöglichen Beziehungen zwischen Unternehmen/Organisationen, Personen und Transaktionen zu untersuchen. Eine spezielle Anwendung von Graph Analytics: grafikfähige semantische Wissensgraphen (Prominentes Beispiel: der Google Knowledge Graph). Diese bilden die Grundlage für viele Natural Language Processing / Conversational Analytics Datenstrukturen und bereichern viele Datenprozesse enorm.

 

6. Natural Language Processing / Conversational Analytics

Die Natural Language Processing (NLP) ist ein Teilgebiet der Linguistik und Informatik, das sich mit den Wechselwirkungen zwischen Computern und menschlichen (natürlichen) Sprachen befasst. Aktuell beschäftigen sich Unternehmen insbesondere mit der Frage, wie man Computer programmiert, um große Mengen an natürlichen Sprachdaten zu verarbeiten und zu analysieren. Das gilt sowohl für Suchmaschinen, Voice Commerce, Sprachassistenten als auch für Analytics Anwendungen.

Denn bis 2020 werden laut Gartner 50% der Analytics Abfragen in Systemen über Suche, Spracheingaben (NLP) oder automatisch generiert sein. Der Endkunden-Trend der Sprachsteuerung im Auto, per Smartphone, Smart Speaker uvm. erhält also zunehmend auch Einzug in B2B Analytics-Anwendungen.

Bis 2021 wird die Verarbeitung natürlicher Sprache die Akzeptanz von Analyse und Business Intelligence Software von 35% der Mitarbeiter auf über 50% steigern. Das macht Analytics auch für neue Benutzergruppen wie Manager, Vertriebler oder Kreative besser nutzbar. Anbieter wie Tablaeu bieten solche NLP Funktionalitäten bereits heute an – sieh selbst:

7. Commercial AI & ML

Viele beliebte AI und ML Software-Frameworks sind aktuell noch durch Open Source gestützt (z.B. Tensorflow von Google or Caffe by Berkeley AI Research). Bis 2022 werden 75% der neuen Endbenutzer-Software (z.B. Apps & Webseiten), die KI- und ML-Techniken nutzen, mit kommerzieller statt mit Open Source Software arbeiten.

Gartner prognostiziert aktuell, dass bis 2022 kommerzielle cloud-basierte Dienste der großen Anbieter (vor allem Amazon, Google oder Microsoft) den Wendepunkt von 20% Marktanteil am Data Science Plattform Markt erreichen werden. Denn diese großen Tech-Konzerne haben das Potenzial von Data Science schon lange für sich erkannt und arbeiten daher an der Kommerzialisierung ihrer selbstentwickelten Frameworks.

 

8. Blockchain in Analytics

Das Versprechen der Blockchain ist gigantisch: Sie enthält kryptographisch geschützte Daten, die unveränderlich sind. Die Daten können nur von einem Netzwerk von Teilnehmern gemeinsam genutzt und ergänzt werden, sodass alle immer gleichzeitig die neusten Daten/Informationen haben. Das ist natürlich mit einer enormen Komplexität verbunden.

Trotzdem wird die Blockchain-Technologie seit geraumer Zeit als eine der Technologien, die den Handel revolutionieren werden betrachtet.

Analytics Use-Cases wären beispielweise die Betrugsanalyse, Auditing Prozesse oder Data Sharing zwischen verschiedenen Organisationen. Doch aufgrund der bisher nicht überzeugenden Anwendungen auf Blockchain Basis wird dieser Trend von vielen Experten als Hype abgestempelt. Wir werden langfristig beobachten wie es sich entwickelt.

Aber nun zu den beiden letzten Trends – Achtung: Nerd-Alarm!

9. Persistent Memory Servers

Bis 2021 wird der persistente Speicher (das heißt beständig, im Gegensatz zu flüchtigen Speichern wie einem Cache) über 10% des Verbrauchs an In-Memory-Computing-Speicher ausmachen. Die meisten Datenbankmanagementsysteme (DBMS) verwenden heute In-Memory-Datenbankstrukturen, sowohl zeilen- als auch spaltenbasiert (z.B. Hadoop). In-Memory-Computing ermöglicht es, die Berechnungszeiten von großen Datenmengen zu verringern. Mittel- bis langfristig soll durch diese Hardware eine Reaktion in Echtzeit auch bei Milliarden von Datensätzen möglich sein. Denn traditionelle Systeme arbeiten mit Festplattenspeichern, die für den Zugriff der Daten deutlich länger brauchen.

In den meisten Fällen ist die Speichergröße aktuell noch begrenzt und es können daher nicht alle Daten im In-Memory Speicher abgelegt werden. Entweder entscheidet die DBMS-Software, was im Speicher gehalten wird oder es wird benutzerdefiniert festgelegt (z.B. durch den Systemadmin). Es existieren bereits einige Server mit großem In-Memory Speicher mit bis zu 64 Terabyte, diese benötigen jedoch mehrere Prozessoren und sind aktuell noch sehr teuer. Es wäre wünschenswert, wenn diese Hardware zeitnah günstiger würde und damit von mehr Unternehmen nutzbar wird.

 

10. Data Fabric Designs

Die Wertschöpfung aus Analytics-Investitionen hängt auch von einer agilen und vertrauenswürdigen Datenstruktur ab. Ein Data Fabric ist in der Regel ein maßgeschneidertes Design, das wiederverwendbare Datendienste, Pipelines, semantische Schichten oder APIs durch Kombination von Datenintegrationsansätzen bereitstellt.

Da je nach Branche, Geschäftsmodell und Komplexität der Daten eine sehr individuelle und unterschiedliche Datenstruktur vorliegt, ist das Data Fabric Design einen weiterer wichtiger Hardwaretrend. Dieser wird aber aktuell wohl nur die Hardcore-Analytics Nerds begeistern.

Denn bis 2022 werden maßgeschneiderte Data Fabric Designs (Datenstrukturdesigns) in erster Linie als Infrastruktur eingesetzt werden. Vermutlich insbesondere bei Analytics Plattformen wie Webtrekk oder AT Internet.

 

Mehr Insights zur CX-Optimierung?

Jetzt Dein Whitepaper sichern und von Top-Experten wie Zalando, konversionsKRAFT & Co lernen!