Data Operations: Wie Sie die Performance Ihrer Datenanalyse und Dashboards steigern

#dataops: Folgen Sie der Diskussion auf Twitter
#dataops: Folgen Sie der Diskussion auf Twitter

Sind Sie mit der Geschwindigkeit Ihrer Datenanlyse unzufrieden? Oder haben Ihre Dashboards lange Ladezeiten? Dann können Sie bzw. Ihr Datenbank-Administrator folgenden Hinweisen nachgehen, die sich je nach Datenquelle unterscheiden können.

Allgemeine Empfehlungen zur Performance-Optimierung

Möchten Sie die Geschwindigkeit der Analyse verbessern? Dann beachten Sie folgende Punkte:

  • Benutzen Sie mehrere »kleinere« Datenquellen fĂŒr individuelle Fragestellungen anstatt einer einzigen Datenquelle, die alle Fragestellungen abdecken soll.
  • Verzichten Sie auf nicht notwendige VerknĂŒpfungen.
  • Aktivieren Sie in Tableau die Option »Referentielle IntegritĂ€t voraussetzen« im »Daten«-MenĂŒ (siehe Abbildung 2.20). Wenn Sie diese Option verwenden, schließt Tableau die verknĂŒpften Tabellen nur dann in die Datenabfrage ein, wenn sie explizit in der Ansicht verwendet wird*. Wenn Ihre Daten nicht ĂŒber referentielle IntegritĂ€t verfĂŒgen, sind die Abfrageergebnisse möglicherweise ungenau.
Aktivierte Option „Referentielle IntegritĂ€t voraussetzen“ im „Daten“-MenĂŒ
Abbildung 2.20: Aktivierte Option »Referentielle IntegritĂ€t voraussetzen« im »Daten«-MenĂŒ

* So wird beispielsweise der Umsatz anstatt mit der SQL-Abfrage SELECT SUM([Sales Amount]) FROM [Sales] S INNER JOIN [Product Catalog] P ON S.ProductID = P.ProductID lediglich mit der SQL-Abfrage SELECT SUM([Sales Amount]) FROM [Sales] ermittelt.

Empfehlungen fĂŒr Performance-Optimierung bei Dateien und Cloud-Diensten

Achten Sie insbesondere beim Arbeiten mit Dateiformaten, wie Excel-, PDF- oder Textdateien, oder Daten aus Cloud-Diensten wie Google Tabellen zusÀtzlich auf folgende Punkte:

  • Verzichten Sie auf Vereinigungen ĂŒber viele Dateien hinweg, da deren Verarbeitung sehr zeitintensiv ist.
  • Nutzen Sie einen Datenextrakt anstatt einer Live-Verbindung, falls Sie nicht mit einem schnellen Datenbanksystem arbeiten (siehe Wann sollten Sie Datenextrakte und wann Live-Verbindungen verwenden).
  • Stellen Sie sicher, dass Sie beim Erstellen des Extrakts die Option »Einzelne Tabelle« wĂ€hlen, anstatt der Option »Mehrere Tabellen« (siehe Abbildung 2.21). Dadurch wird das erzeugte Extrakt zwar grĂ¶ĂŸer und das Erstellen des Extrakts dauert lĂ€nger, das Abfragen hingegen wird um ein Vielfaches beschleunigt.
AusgewĂ€hlte Option „Einzelne Tabelle“ im „Daten extrahieren“-Dialog
Abbildung 2.21: AusgewÀhlte Option »Einzelne Tabelle« im »Daten extrahieren«-Dialog

Empfehlungen fĂŒr Performance-Optimierung bei Datenbank-Servern

Arbeiten Sie mit Daten auf einem Datenbank-Server, wie Oracle, PostgreSQL oder Microsoft SQL Server, und möchten die Zugriffszeiten verbessern? Dann achten Sie bzw. der dafĂŒr zustĂ€ndige Datenbankadministrator zusĂ€tzlich auf folgende Punkte:

  • Definieren Sie fĂŒr Ihre Datenbank-Tabellen sinnvolle Index-Spalten.
  • Legen Sie fĂŒr Ihre Datenbank-Tabellen Partitionen an.

Dieser Beitrag ist der dritte Teil der Data-Operations-Serie:

Teil 1: Daten fĂŒr die Analyse optimal vorbereiten
Teil 2: Wann sollten Sie Datenextrakte und wann Live-Verbindungen verwenden
Teil 3: Wie Sie die Performance Ihrer Datenanalyse und Dashboards steigern

Außerdem basiert dieser Blog-Post auf einem Unterkapitel des Buches “Datenvisualisierung mit Tableau“:

Datenvisualisierung mit Tableau
  • Alexander Loth
  • Publisher: mitp
  • Edition no. 2018 (31.07.2018)
  • Broschiert: 224 pages

Data Operations: Wann sollten Sie Datenextrakte und wann Live-Verbindungen verwenden

#dataops: Folgen Sie der Diskussion auf Twitter
#dataops: Folgen Sie der Diskussion auf Twitter

Nachdem Sie Ihre Daten fĂŒr die Analyse optimal vorbereitet haben, stellt sich die Frage auf welche Weise Sie Ihre Daten bereithalten wollen, damit Sie schnell erste Erkenntnisse erhalten.

Tableau bietet Ihnen fĂŒr die meisten Datenquellen die Möglichkeit, zwischen einer Live-Verbindung, also einer direkten Verbindung zur Datenbank, und einem Datenextrakt, also einem Abzug der Daten zu wĂ€hlen. Wie Abbildung 1.1 zeigt, können Sie einfach zwischen beiden Verbindungstypen wechseln.

Auswahlknöpfe, um zwischen Live-Verbindung und Datenextrakt zu wechseln
Abbildung 1.1: Auswahlknöpfe, um zwischen Live-Verbindung und Datenextrakt zu wechseln

Live-Verbindungen ermöglichen Ihnen die Arbeit mit den Daten, wie sie zum momentanen Zeitpunkt auf der Datenbank oder der Datei vorliegen. Wenn Sie Daten extrahieren, importieren Sie einige oder alle Daten in die Data Engine von Tableau. Dies gilt sowohl fĂŒr Tableau Desktop als auch fĂŒr Tableau Server. Welche Verbindungsmethode Sie bevorzugen sollten, hĂ€ngt von Ihrer Situation und dem Anwendungsfall, Ihren Anforderungen sowie von der VerfĂŒgbarkeit der Datenbank und der Netzwerkbeschaffenheit ab.

Immer aktuell mit der Live-Verbindung

Durch die direkte Verbindung mit Ihrer Datenquelle visualisieren Sie immer die aktuellsten Daten, die Ihnen die Datenbank zur VerfĂŒgung stellt. Wenn Ihre Datenbank in Echtzeit aktualisiert wird, mĂŒssen Sie die Tableau-Visualisierung nur ĂŒber die Funktionstaste F5 aktualisieren oder indem Sie mit der rechten Maustaste auf die Datenquelle klicken und die Option Aktualisieren auswĂ€hlen.

Wenn Sie eine Verbindung zu großen Datenmengen herstellen, die Visualisierung sehr viele Details enthĂ€lt oder Ihre Daten in einer leistungsstarken Datenbank mit entsprechend ausgestatteter Hardware gespeichert sind, können Sie mit einer direkten Verbindung eine schnellere Antwortzeit erzielen.

Die Auswahl einer direkten Verbindung schließt nicht die Möglichkeit aus, die Daten spĂ€ter zu extrahieren. Andersherum können Sie auch wieder von einem Extrakt zu einer Live-Verbindung wechseln, indem Sie mit der rechten Maustaste auf die Datenquelle klicken und die Option Extrakt verwenden deaktivieren.

UnabhÀngig mit einem Datenextrakt

Datenextrakte haben naturgemĂ€ĂŸ nicht den Vorteil, dass sie in Echtzeit aktualisiert werden, wie es bei einer Live-Verbindung der Fall ist. Die Verwendung der Data Engine von Tableau bietet jedoch eine Reihe von Vorteilen:

Leistungsverbesserung bei langsamen Datenquellen:

Vielleicht ist Ihre Datenbank stark mit Anfragen belastet oder bereits mit transaktionalen Operationen beschĂ€ftigt. Mithilfe der Data Engine können Sie Ihre Datenbank entlasten und die Datenhaltung von Tableau ĂŒbernehmen lassen. Extrakte können Sie am besten außerhalb der Stoßzeiten aktualisieren. Tableau Server kann Extrakte auch zu festgelegten Zeitpunkten aktualisieren, zum Beispiel nachts um 3 Uhr.

Inkrementelles Extrahieren:

Durch das inkrementelle Extrahieren wird auch die Aktualisierungszeit beschleunigt, da Tableau nicht die gesamte Extraktdatei aktualisiert. Es fĂŒgt nur neue DatensĂ€tze hinzu. Um inkrementelle Extrakte auszufĂŒhren, mĂŒssen Sie ein Feld angeben, das als Index verwendet werden soll. Tableau aktualisiert die Zeile nur, wenn sich der Index geĂ€ndert hat. Daher mĂŒssen Sie beachten, dass Änderungen an einer Datenzeile, die das Indexfeld nicht Ă€ndert, von der Aktualisierung nicht berĂŒcksichtigt werden.

Datenmenge mit Filtern einschrÀnken:

Eine andere Möglichkeit, Extrakte zu beschleunigen, besteht darin, beim Extrahieren der Daten Filter anzuwenden. Wenn fĂŒr die Analyse nicht die gesamte Datenmenge benötigt wird, können Sie den Extrakt so filtern, dass er nur die erforderlichen DatensĂ€tze enthĂ€lt. Wenn Sie eine sehr große Datenmenge haben, mĂŒssen Sie nur selten den gesamten Inhalt der Datenbank extrahieren. Zum Beispiel kann Ihre Datenbank Daten fĂŒr viele Regionen enthalten, aber Sie benötigen möglicherweise nur die Daten zur Region »SĂŒd«.

Um einen Extrakt entsprechend anzulegen, wĂ€hlen Sie als Verbindung Extrakt aus und klicken dann auf das nebenstehende Bearbeiten. Es öffnet sich das Fenster Daten extrahieren. Mit einem weiteren Klick auf HinzufĂŒgen können Sie nun einen Filter erstellen, der fĂŒr Ihren Extrakt angewandt wird (siehe Abbildung 1.2).

Der Datenextrakt kann mit Filtern eingeschrÀnkt werden
Abbildung 1.2: Der Datenextrakt kann mit Filtern eingeschrÀnkt werden

Weitere Funktionen fĂŒr bestimmte Datenquellen:

Wenn Ihre Daten aus einer bestimmten Datenquelle stammen, so sind unter anderem Aggregationsfunktion wie Median (beispielsweise bei Access-Datenbanken ) bei einer Live-Verbindung nicht verfĂŒgbar. Arbeiten Sie mit einem Extrakt, können Sie diese Funktionen nutzen, auch wenn sie von der ursprĂŒnglichen Datenquelle nicht unterstĂŒtzt werden.

DatenĂŒbertragbarkeit:

Sie können Extrakte lokal speichern und auch dann verwenden, wenn die Verbindung zu Ihrer Datenquelle nicht verfĂŒgbar ist. Eine Live-Verbindung funktioniert nicht, wenn Sie nicht ĂŒber ein lokales Netzwerk oder das Internet auf Ihre Datenquelle zugreifen können. Extrakte werden außerdem komprimiert und sind normalerweise wesentlich kleiner als die ursprĂŒnglichen Datenbanktabellen, was dem Weitertransport der Daten zugutekommt.

Achten Sie auf Datenschutz und Data Governance

In Unternehmen spielen Datenschutz und Data Governance und damit verbunden IntegritĂ€t und Sicherheit der Daten eine wichtige Rolle. Wenn Sie Extrakte an Mitarbeiter oder GeschĂ€ftspartner verteilen, sollten Sie die etwaige Vertraulichkeit Ihrer Daten berĂŒcksichtigen. Ziehen Sie in Betracht, den Inhalt des Extrakts ĂŒber Filter einzuschrĂ€nken und zu sichtbaren Dimensionen zu aggregieren.

Sind Sie sich unsicher, arbeiten Sie im Zweifelsfall besser mit einer Live-Verbindung, da in diesem Fall Ihre Datenbank das Rechte-Management steuert und so Ihre Daten nicht von Personen ohne ausreichende Berechtigungen gesehen werden können.

Dieser Beitrag ist der dritte Teil der Data-Operations-Serie:

Teil 1: Daten fĂŒr die Analyse optimal vorbereiten
Teil 2: Wann sollten Sie Datenextrakte und wann Live-Verbindungen verwenden
Teil 3: Wie Sie die Performance Ihrer Datenanalyse und Dashboards steigern

Außerdem ist dieser Blog-Post ein Auszug aus dem Buch “Datenvisualisierung mit Tableau“, das am 31. Juli 2018 erschienen ist:

Datenvisualisierung mit Tableau
  • Alexander Loth
  • Publisher: mitp
  • Edition no. 2018 (31.07.2018)
  • Broschiert: 224 pages

Digitale Banken: Welche Digitalisierungstrends bewegen die Finanzbranche 2018?

Immersive und interaktive Analyse von Finanzdaten mit Argumented Reality
Immersive und interaktive Analyse von Finanzdaten mit Argumented Reality (Blockchain-Dashboard)

Jedes Jahr (2015, 2016, 2017 und 2018) stelle ich Digitalisierungstrends vor, die der Finanzbranche ein großes Potenzial bieten. Dabei geht es vor allem um einen Überblick darĂŒber, welche Trends und Technologien zukĂŒnftig eine grĂ¶ĂŸere Rolle spielen werden oder könnten.

Im Folgenden habe ich die fĂŒnf Digitalisierungstrends identifiziert, die fĂŒr Banken und Versicherungen in Zukunft besonders spannend sein dĂŒrften:

1. Maschine Learning

Maschine Learning und Deep Learning werden im Investment Banking angewandt, um Unternehmensbewertungen schneller und zuverlĂ€ssiger durchzufĂŒhren. Mehr Daten denn je können hinzugezogen werden. Eine Gewichtung der Daten erfolgt komplett autonom. Da manuelle Analyse weitgehend entfĂ€llt, werden Entscheidungsprozesse drastisch beschleunigt. Investoren, die mit konventionellen Werkzeugen arbeiten, haben das Nachsehen.

2. KĂŒnstliche Intelligenz

Durch KĂŒnstliche Intelligenz gesteuerte Chatbots vermitteln den Kunden eine menschlichen-Ă€hnliche Betreuung. Chatbots werden darĂŒber hinaus in existierende Cloud-basierende Assistenten, wie Alexa oder Siri, eingebunden und sind in der Lage mittels Natural Language Processing, auch komplexere Anfragen zu verstehen. Recommender-Systeme liefern maßgeschneiderte Lösungen, die speziell auf die BedĂŒrfnisse der Kunden abgestimmt sind.

3. Internet of Things

Wearables und in Kleidung eingearbeitete Sensoren (Internet of Things, IoT) liefern ausreichend Daten, um den Lebensstil der Kunden vollstĂ€ndig zu vermessen. Dadurch können individuelle Raten fĂŒr Versicherungen und Finanzprodukte berechnet werden. Außerdem bieten die IoT-Daten eine weitere Datenquelle fĂŒr die Recommender-Systeme.

4. Blockchain

VertrĂ€ge werden kostengĂŒnstig, fĂ€lschungssicher und irreversibel in der Blockchain gespeichert. Die Blockchain dienst sogenannten Smart Contracts als dezentrale Datenbank. DarĂŒber hinaus liefern Blockchain-Implementierungen, wie Ethereum, das AusfĂŒhren von Logik, die beispielsweise monatliche Zahlungen prĂŒfen und ggf. auch die ErfĂŒllung von Vertragsbestandteilen (z.B. im Schadenfall) steuern.

5. Argumented Reality

ArbeitsplĂ€tze werden mit Technik ausgestattet, die Argumented Reality ermöglicht. Lösungen wie Microsoft’s Hololense ermöglichen Analysten und HĂ€ndlern eine immersive und interaktive Analyse von Finanzdaten in Echtzeit. Insbesondere fĂ€llt dadurch auch die Zusammenarbeit mit Kollegen leichter, da Plattformen zur visuellen Kollaboration traditionelle Meetings weitgehend ablösen.

Welcher ist der 6. Trend?

Helfen Sie den 6. Digitalisierungstrend zu benennen? Nehmen Sie hierzu an der Twitter-Umfrage teil. SelbstverstĂ€ndlich freue ich mich auch ĂŒber Kommentare und eine spannende Diskussion.

Data Operations: Daten fĂŒr die Analyse optimal vorbereiten

#dataops: Folgen Sie der Diskussion auf Twitter
#dataops: Folgen Sie der Diskussion auf Twitter

KĂŒrzlich habe ich einige Blog-Posts zum Thema Datenstrategie veröffentlicht. FĂŒr viele Unternehmen geht die Entwicklung und EinfĂŒhrung einer Datenstrategie nicht tief genug. HĂ€ufig habe ich Ă€hnliches gehört: “So weit ist unser Unternehmen noch gar nicht. Wir haben noch viel operativ vorzubereiten, bevor wir eine Datenstrategie voll umfĂ€nglich etablieren können.”

Ich habe in diesen GesprĂ€chen nachgehakt, wo diese grundlegenden LĂŒcken in den Unternehmen bestehen, und entschlossen eine neue Blog-Post-Serie aufzusetzen, um zum Thema Data Operations (#dataops) konkrete und einfach umsetzbare VorschlĂ€ge zu geben.

Daten fĂŒr die Analyse vorbereiten

Eine der wesentlichen Fragen, die sich Datenanalysten immer wieder stellen, lautet: “Gibt es eine Möglichkeit meine Daten fĂŒr die Verwendung mit Analysewerkzeugen, wie Tableau, optimal vorzubereiten?”

Daten können auf unterschiedliche Arten strukturiert sein. Die meisten neuen Tableau-Anwender erliegen der Versuchung, Tableau mit einem bereits formatierten und voraggregierten Excel-Bericht (siehe Abbildung 1.1) zu verbinden und diesen in Tableau zu visualisieren. Heißt es nicht mit Tableau können Daten jeder Art einfach und intuitiv verwenden werden? Sehr schnell stellt man fest, dass ein solches Vorgehen nicht funktioniert, wie erwartet und sich so auch keine Visualisierungen erstellen lassen.

Abbildung 1.1: Bereits formatierter und voraggregierter Excel-Bericht
Abbildung 1.1: Bereits formatierter und voraggregierter Excel-Bericht

Dieses Szenario, dem viele Einsteiger begegnen, ist nicht ungewöhnlich und tatsÀchlich ein hÀufiger Stolperstein bei der Einarbeitung in Tableau, der die Analyse Ihrer Daten erschweren kann.

Die folgenden Punkte zeigen Ihnen VorschlÀge zur sauberen Vorbereitung Ihrer Daten anhand des Beispielberichts:

  • Verzichten Sie auf den einleitenden Text (“Temperaturmessung zum Monatsbeginn”).
  • ÜberfĂŒhren Sie hierarchische Überschriften (“Frankfurt”, “Berlin”) auf eine Spalteninformation (neue Spalte “Ort”).
  • Pivotisieren Sie Daten von einer “weiten” Kreuztabelle mit Variablen in Spalten (“FrĂŒh”, “Mittag”, “Abend”) in eine “lange” Tabelle, die die Variablen stets in den Zeilen trĂ€gt (in diesem Beispiel die Uhrzeit).
  • Nutzen Sie vollstĂ€ndige Datums- und ggf. Zeitformate (“01.04.2018 06:00”) anstatt z.B. nur den Monatsnamen (“April”).
  • ÜberprĂŒfen Sie, dass Zahlen im Zahlenformat und nicht im Textformat gespeichert sind.
  • Verzichten Sie voraggregierte Daten (“Durchschnitt”, “Gesamtdurchschnitt”).
  • Entfernen Sie leere Zeilen.
  • Achten Sie darauf, dass jede Spate eine aussagekrĂ€ftige SpaltenĂŒberschrift trĂ€gt.

Haben Sie diese VorschlĂ€ge befolgt, ist aus Ihrer “weiten” Kreuztabelle nun eine “lange” Zeilen-basierte Tabelle geworden, und damit die perfekte Basis zur umfangreichen Datenanalyse (siehe Abbildung 1.2).

Abbildung 1.2: Zur Datenanalyse geeignete „lange Tabelle“ ohne Aggregationen
Abbildung 1.2: Zur Datenanalyse geeignete „lange Tabelle“ ohne Aggregationen

Dieser Beitrag ist der dritte Teil der Data-Operations-Serie:

Teil 1: Daten fĂŒr die Analyse optimal vorbereiten
Teil 2: Wann sollten Sie Datenextrakte und wann Live-Verbindungen verwenden
Teil 3: Wie Sie die Performance Ihrer Datenanalyse und Dashboards steigern

Außerdem ist dieser Blog-Post ein Auszug aus dem Buch “Datenvisualisierung mit Tableau“, das am 31. Juli 2018 erscheinen wird:

Datenvisualisierung mit Tableau
  • Alexander Loth
  • Publisher: mitp
  • Edition no. 2018 (31.07.2018)
  • Broschiert: 224 pages

Data Strategy: Erstickt Innovation zwischen Berichtswesen und Data Discovery?

Abbildung 4: Interaktives Dashboard zur Darstellung von variablen AbhÀngigkeiten in Tableau
Abbildung 4: Interaktives Dashboard zur Darstellung von variablen AbhÀngigkeiten mit TensorFlow in Tableau

Der erste Schritt auf dem Weg zu besserer Entscheidungsfindung im Unternehmen, ist zu verstehen, wie gute (oder schlechte) Entscheidungen zustande kamen. Genau wie manche Unternehmen formale Prozesse fĂŒr AktivitĂ€ten haben, wie z. B. What-if-Analysen, prĂ€diktive Wartung und Bestimmung von AbhĂ€ngigkeiten in Korrelationen (siehe Abbildung 4), so mĂŒssen sie formale PrĂŒfprozesse fĂŒr Entscheidungen im gesamten Unternehmen einfĂŒhren. Dies soll jedoch keinesfalls dazu dienen, die an schlechten Entscheidungen Beteiligten zu bestrafen, sondern den Entscheidungsfindungsprozess und -stil des Unternehmens im Allgemeinen verbessern.

Die Rolle der IT nĂ€hert sich hierbei wieder ihren Wurzeln an und statt eine Berichtefabrik fĂŒr den Rest des Unternehmens zu unterhalten, wird die IT wieder zum Dienstleister und Partner, der die Infrastruktur fĂŒr eine Data Discovery bereitstellt. IT-Mitarbeiter werden entlastet und erhalten den Freiraum, ihre professionelle Energie und KreativitĂ€t in den Dienst der Innovation zu stellen, und die Mitarbeiter in den Abteilungen sehen ihre Datenfragen nicht am Flaschenhals Berichtswesen verhungern. Nur so lassen sich die Investitionen in Business Intelligence und Analytics optimal in den Dienst der strategischen Ziele des Unternehmens stellen.

Abbildung 5: Anforderungen, FÀhigkeiten und Ziele einer Datenstrategie (TC17-PrÀsentation)
Abbildung 5: Anforderungen, FÀhigkeiten und Ziele einer Datenstrategie (TC17-PrÀsentation)

Moderne Unternehmen sehen sich vielen analytischen Anforderungen (siehe Abbildung 5) gegenĂŒber, und diese Anforderungen werden unweigerlich schneller wachsen, als Unternehmen sie bedienen können. Es ist daher unerlĂ€sslich, Analytics als lebenswichtigen Teil der eigenen Datenstrategie zu verstehen und entsprechend zu planen.

Dabei ist ein umfassender Betrachtungswinkel sinnvoll, denn die wachsende Nachfrage nach Analysen und Erkenntnissen wird mehr und mehr von den kundenbezogenen Abteilungen wie Marketing oder Support ausgehen. Dementsprechend wird auch das Budget fĂŒr Analytics verstĂ€rkt aus diesen Abteilungen kommen, statt aus einem zentralisierten IT- oder BI-Budget. Dort, wo viele Kundendaten vorhanden sind, wird der CMO bald mehr fĂŒr Analytics ausgeben als der CIO. Und dort, wo Mitarbeiter ĂŒber gut integrierte, intuitive Werkzeuge fĂŒr komplexe Analysen verfĂŒgen, können gute Instinkte und datenbasierte Entscheidungen Hand in Hand fĂŒr den Erfolg sorgen.

Dieser Beitrag ist der fĂŒnfte Teil der Datenstrategie-Serie:

Teil 1: Die Notwendigkeit einer modernen Datenstrategie im Zuge der digitalen Transformation
Teil 2: Steigern smarte Erkenntnisse den Business Impact?
Teil 3: 10 BI & Analytics Trends, die in keiner Datenstrategie fehlen dĂŒrfen
Teil 4: Wie unterstĂŒtzen Analysen Ihre Entscheidungsfindung?
Teil 5: Erstickt Innovation zwischen Berichtswesen und Data Discovery?

TC17 Data Strategy Title Slide Möchten Sie mehr zu den neuesten Trends im Bereich Datenstrategie erfahren? Dann freue ich mich, wenn Sie an meinem Vortrag “Building an Enterprise Big Data & Advanced Analytics Strategy” auf unserer Tableau Conference TC17 (9.-12. Okt., Las Vegas) teilnehmen.