Tableau Conference TC17 Sneak Peek: Integrating Julia for Advanced Analytics

Demo: using Julia within calculations in Tableau (click to enlarge)
Demo: using Julia calculations within Tableau (click to enlarge)

We have already seen some love from Tableau for R and Python, boosting Tableau’s Advanced Analytics capabilities.

So what is the next big thing for our Data Science Rockstars? Julia!

Who is Julia?

JuliaJulia logo is a high-level dynamic programming language introduced in 2012. Designed to address the needs of high-performance numerical analysis its syntax is very similar to MATLAB. If you are used to MATLAB, you will be very quick to get on track with Julia.

Compared to R and Python, Julia is significantly faster (close to C and FORTRAN, see benchmark). Based on Tableau’s R integration, Julia is a fantastic addition to Tableau’s Advanced Analytics stack and to your data science toolbox.

Where can I learn more?

Do you want to learn more about Advanced Analytics and how to leverage Tableau with R, Python, and Julia? Meet me at the 2017 Tableau Conferences in London, Berlin, or Las Vegas and join my Advanced Analytics sessions:

Will there be an online tutorial?

Yes, of course! I published tutorials for R and Python on this blog. And I will also publish a Julia tutorial soon. Feel free to follow me on Twitter @xlth, and leave me your feedback/suggestions in the comment section below.

Further reading: Mastering Julia

A German translation of this post is published on the official Tableau blog: Tableau Conference On Tour Sneak Peek: Julia-Integration für Advanced Analytics

Update 11 Oct 2017: The Julia+Tableau tutorial blog post is now published.

Take the Survey: The Stage of Digital Transformation

This survey is part of my thesis that examines the topology, structure, and evolution of the digital transformation within organizations. Your contribution to this survey helps to better understand the perception regarding the current stage of digital transformation.

Follow this link to take the survey:
https://goo.gl/forms/Yi2OUYaQfIBP9t3x2

Spread the word and share this article! Thanks!

Digitale Banken: Die Chancen von Blockchain, Künstlicher Intelligenz und Machine Learning

Commerzbank Tower
Commerzbank Tower: Zahlt sich für Banken die Kooperation mit Fintechs aus? (Foto: Flickr)

Die Zukunft im Finanzwesen bleibt vielversprechend und spannend. Haben uns kürzlich noch Innovationen in der Erschließung neuer Märkte und in der Vermögensverwaltung beschäftigt, so sind es heute mehr denn je die raffinierten datengetriebenen Technologien, die in den Vordergrund gerückt sind.

Anfang dieses Jahres startete Futura Analytics, ein Fintech, das enorme Datenmengen und maschinelle Lernmodelle nutzt, um Regeln zur Risikobewertung in Echtzeit umzuschreiben. Futura Analytics verwandelt Daten aus Twitter und anderen öffentlichen Quellen in nutzbare Signale und identifiziert die relevantesten Informationen in Echtzeit für Kunden im Finanzsektor (Beispiel: Bitcoin/Sentiment-Analyse).

Künstliche Intelligenz ist Teil der Zukunft

Banken und Fintechs nutzen die künstliche Intelligenz und die immer besser werdende Verarbeitung von natürlicher Sprache, um Kunden einen besseren Zugang zu Finanzdienstleistungen zu ermöglichen. Produktempfehlungen basierend auf Mustererkennung hilft die passende Dienstleistung anzubieten. Natürliche Sprache wird zu einer Vereinfachung von Zahlungsinteraktionen führen.

M2M-Lösungen rationalisieren Cloud-basierte Authentifizierung

Zwillingstürme der Deutschen Bank
Deutsche Bank (Foto: Flickr)

Allerdings müssen Zahlungsinteraktionen direkt von Gerät zu Gerät immer noch Barrieren überwinden, wie z.B. das Gewährleisten einer nahtlose Authentifizierung zwischen den Endgeräten. Bis solche M2M-Lösungen (Machine-to-Machine) mit nahtloser Authentifizierung herstellerübergreifend verfügbar ist, werden sich Geräte weiterhin über Services in der Cloud authentifizieren, bevor Transaktionen ausgeführt werden.

Gamification schafft Anreize für mobile Bezahlung

Mobiles Bezahlen am Point-of-Sale haben sich noch immer nicht flächendeckend durchgesetzt. Obwohl Unternehmen in Zahlungsterminals bereitstellen, fehlt es an Anreizen, um die Nutzer dazu zu ermutigen, mit ihren mobilen Geräten zu bezahlen. Banken haben schon damit begonnen die kostenlose Bargeldversorgung einzuschränken. Fintechs können dem Handel mit Gamification helfen das mobile Zahlen für Kunden attraktiver machen.

Blockchain ermöglicht kostengünstige Transaktionsüberprüfung

Die Rolle der Blockchain-Technologie bei der Bereitstellung einer verteilten Transaktionshistorie weckt großes Interesse im Zahlungs- und Handelsökosystem. Die Technologie macht Transaktionsgebühren, die Anbieter wie PayPal für das Sicherstellen von Transaktionen erhoben haben, hinfällig. Die Nutzung der Blockchain zur kostengünstigen Überprüfung von Transaktionen wird bei Banken oben auf der Agenda stehen.

Maschinelles Lernen verbessert die Zahlungssicherheit

Durch die Digitalisierung von Zahlungen muss die Zahlungssicherheit über eine breite Palette an Endgeräten gewährleistet werden. Geräte können ein erhöhtes Risiko gegenüber fortgeschrittenen Angriffen aufweisen. Bei der Gestaltung von sicheren Zahlungsmethoden erkennt maschinelles Lernen das Verhalten und greift ein, wenn ein solches Verhalten auf ungewöhnliche Verhaltensweisen oder Transaktionsaktivitäten hindeutet.

Data Strategy: Wie unterstützen Analysen Ihre Entscheidungsfindung?

Abbildung 3: bei der Entscheidungsfindung gibt es keinen Schritt, der nicht von Analysen begleitet wird
Abbildung 3: bei der Entscheidungsfindung gibt es keinen Schritt, der nicht von Analysen begleitet wird (Foto: Flickr)

Unternehmen transformieren die Art und Weise, wie sie ihre Kundenanalyse angehen in vielen verschiedenen Aspekten. Dieser Wandel ist jedoch weder branchenübergreifend, noch von Unternehmen zu Unternehmen innerhalb einer Branche konsistent. Ein Schlüssel zum Erfolg, bei dem die IT eine entscheidende Rolle spielen kann, ist es, den Faktor Kundenwissen möglichst gewinnbringend in die eigene Unternehmensstruktur zu integrieren.

Um eine Daten-zentrische Strategie zu entwickeln, müssen wir zunächst verstehen, wie unser Unternehmen Analysen durchführt und mit den Erkenntnissen umgeht:

  1. Welche Daten werden gesammelt, was passiert mit ihnen und wie wirken sie sich auf unsere Entscheidungen aus?
  2. Betrachten wir unsere Kunden aus einer taktischen oder strategischen Perspektive?
  3. Sehen wir alle wichtigen Details?
  4. Wie können wir effizienter aggregieren?
  5. Sind unsere Analysen multidimensional oder sitzen wir in Silos fest?

Egal, wo sich ein Unternehmen im Spannungsfeld zwischen Berichtswesen und Data Discovery befindet, heutzutage müssen sich Analysetechniken nicht nur mit dem Business entwickeln, sie sollten dessen Evolution maßgeblich mitbestimmen. So gibt es beispielsweise Bereiche, in denen riesiges Potenzial zur Effizienzsteigerung durch Algorithmen und Maschinenlernen schlummert. Gleichzeitig werden manch andere Dinge immer das menschliche Auge erfordern.

Wie viele Mitarbeiter im Unternehmen analysieren Daten? Und wie viele konsumieren die Ergebnisse? Es ist wichtig zu wissen, inwiefern die eingesetzte Analyse-Plattform die analytische Arbeitslast und den Informationsfluss innerhalb des Unternehmens beeinflusst. Erst mit einem klaren Bild der Ausgangssituation lässt sich eine Strategie für den Wandel formulieren.

In einer modernen Datenstrategie gibt es bei der Entscheidungsfindung keinen Schritt, der nicht von Analysen begleitet wird (siehe auch Abbildung 3):

  • Awareness: Erkennen, dass eine Entscheidung gefällt werden muss. Benachrichtigungen, komplexe Ereignisverarbeitung und gut designte Dash- und Storyboards bieten sich für diesen Zweck an.
  • Scoping: Verstehen, welche Rahmenbedingungen wichtig und welche Bereiche indirekt betroffen sind. Statistik, Datenvisualisierung, Ad-hoc-Abfragen und bestimmte Data-Mining-Techniken eignen sich hierfür.
  • Predicting: Identifizieren, wie sich unterschiedliche Handlungen auswirken. Simulation, Forecasting und Predictive Analytics sind in diesem Schritt der Entscheidungsfindung gefragt.
  • Selecting: Die bestmögliche Handlung ausfindig machen. Hierbei können Optimierung und Regel-Engines helfen.
  • Reporting: Überwachen der Auswirkungen einer Entscheidung. Hierbei ist selbstverständlich das Berichtswesen die relevante analytische Komponente.

Dieser Beitrag ist der vierte Teil der Datenstrategie-Serie:

Teil 1: Die Notwendigkeit einer modernen Datenstrategie im Zuge der digitalen Transformation
Teil 2: Steigern smarte Erkenntnisse den Business Impact?
Teil 3: 10 BI & Analytics Trends, die in keiner Datenstrategie fehlen dürfen
Teil 4: Wie unterstützen Analysen Ihre Entscheidungsfindung?
Teil 5: Erstickt Innovation zwischen Berichtswesen und Data Discovery?

10 BI & Analytics Trends, die in keiner Datenstrategie fehlen dürfen

Tableau-Webinar zu den Top 10 der Business Intelligence Trends für das Jahr 2017
Tableau-Webinar zu den Top 10 der Business Intelligence Trends für das Jahr 2017

Noch vor einigen Jahren analysierte ich am CERN Daten im Petabyte-Bereich, die wir an den Experimenten des Large Hadron Collider einsammelten. Dazu war vor allem viel Arbeit in der Kommandozeile notwenig. R, Python, Gnuplot und SQL gehörten zu meinem Alltag. Dann habe ich Tableau kennengelernt und habe auf den Großteil meiner Skripte verzichten können. Meine Analysen waren fortan interaktiv, und die Datenstrategie hat sich grundlegend geändert.

Nicht nur in der Forschung hat sich hier viel getan. Auch Business Intelligence hat in den vergangenen Jahren tiefgreifende Änderungen erfahren. Standen 2015 noch Cloud Analytics, Data Science und die Anbindung von Big Data im Vordergrund, so sind 2016 eindeutig Self-Service-Analysen in den Fokus gerückt. Mehr Unternehmen gewähren ihren Mitarbeitern Zugriff auf ihre Daten. Mehr Menschen verstehen Daten als wichtiges Hilfsmittel zur Erfüllung ihrer Aufgaben.

Welche BI & Analytics Trends dürfen 2017 in keiner Datenstrategie fehlen?

1. Jeder kann die „moderne BI“ nutzen

Moderne BI ist ein Modell der Business Intelligence, das Daten für mehr Mitarbeiter in den verschiedensten Rollen zugänglich macht. Dieser Aspekt wird auch im 2016 BI Magic Quadrant von Gartner erwähnt. Dort steht, dass wir „die entscheidende Wende eines mehr als 10 bis 11 Jahre währenden Übergangs von IT-zentrierten Berichtsplattformen zu modernen BI- und Analyseplattformen überschritten“ haben. Dies ist besonders wichtig für Unternehmen die möglicherweise Terabytes oder mehr Daten haben und sicherstellen müssen, dass die Anwender ihre Analysen mit bereinigten und von der IT genehmigten Datenbeständen durchführen.

2. Analysen werden kollaborativer

Bei der Zusammenarbeit werden wir 2017 eine Veränderung beobachten. Anstatt statische Berichte weiterzuleiten werden die Anwender interaktive Arbeitsmappen und Datenquellen gemeinsam nutzen, die als Grundlage für ihre Geschäftsentscheidungen dienen. Stellen Sie sich beispielsweise vor, dass Sie in einer wöchentlichen Geschäftsbesprechung ein interaktives Dashboard aufrufen, um KPIs zu prüfen. Es wird auch durchaus üblich sein, in diesen Dashboards direkt vom Browser oder dem iPad aus Analysen durchzuführen.

3. Alle Daten werden gleichberechtigt

2017 wird der Wert der Daten nicht mehr an Rangordnung oder Größe gebunden sein. Das Laden einer Datenbank mit Milliarden Zeilen sollte genauso vonstatten gehen wie das Laden einer Excel-Tabelle mit 150 Zeilen von Ihrem Desktop. Von Bedeutung wird sein, dass die Mitarbeiter schnell und einfach auf Daten zugreifen können und sie zusammen mit anderen Datentypen untersuchen können.

4. Selfservice wird auf die Datenvorbereitung ausgeweitet

Der Trend zu Benutzerfreundlichkeit und Agilität, der die Märkte für BI und Analysen umgewälzt hat, erreicht nun die Datenvorbereitung. Das bedeutet, dass gängige Aufgaben wie syntaktische Analyse, JSON- und HTML-Importe und die Durcharbeitung der Daten nicht mehr an Spezialisten delegiert wird. Stattdessen werden Nicht-Analysten in der Lage sein, diese Aufgaben als Teil ihres Analyse-Flows zu übernehmen.

5. Arbeiten mit Daten, ohne es zu wissen

Es ist nicht überraschend, dass Analytics am besten funktioniert, wenn es ein natürlicher Teil des Workflows ist. 2017 werden Analysen allgegenwärtig sein werden und sämtliche Geschäftsprozesse bereichern. Embedded BI wird die Reichweite der Analysen derart vergrößern, dass diese Entwicklung möglicherweise gar nicht bewusst wahrgenommen wird. Ähnlich ist es bereits bei der prädiktiven Analyse, die auf Netflix einen Film empfiehlt. Das sind die Ergebnisse von Analysen. Die meisten Menschen sind sich dessen gar nicht bewusst.

6. Die IT wird zum Datenhelden

Seit Jahrzehnten haben IT-Abteilungen damit zu kämpfen, endlos Berichte zu erstellen, um Anfragen vom Geschäftsbetrieb zu beantworten. Dieser Zyklus wird jetzt unterbrochen. IT-Abteilungen produzieren nicht mehr, sondern unterstützen und sorgen für Governance, Datensicherheit und Compliance. Die IT befähigt das Unternehmen, datenorientierte Entscheidungen mit der vom Markt geforderten Schnelligkeit zu treffen. So wird die IT gewissermaßen zum Datenhelden.

7. Die Mitarbeiter arbeiten auf natürlichere Weise mit Daten

SQL zu schreiben ist kein sehr natürlicher Weg, um mit Daten zu arbeiten. 2017 wird die Benutzeroberfläche für die Arbeit mit Daten noch natürlicher wird, und zwar durch natürliche Sprache. Analyse mit natürlicher Sprache bedeutet, dass Datenfragen mit gängigen Wörtern formuliert werden. So können Daten, Grafiken und Dashboards noch leichter zugänglich gemacht werden, indem Sie den Mitarbeitern die Möglichkeit geben, auf neue Art und Weise mit Daten zu interagieren.

8. Der Übergang zur Cloud beschleunigt sich

Datenschwerkraft ist die Idee, dass wir die Analysen dort ausführen wollen, wo sich die Daten befinden. Wenn Ihre Daten also in der Cloud gespeichert sind, wollen wir auch die Analysen dort ausführen. 2017 werden Daten in der Cloud genug „Schwerkraft“ entwickeln, um Unternehmen dazu zu bewegen, ihre Analysen dort bereitzustellen, wo sich die Daten befinden. Cloud-Data-Warehouses wie Amazon Redshift werden sehr beliebte Datenstandorte bleiben und in der Folge werden Cloud-Analysen allgegenwärtig sein.

9. Advanced Analytics wird leichter zugänglich

Nicht jeder Anwender  kann R oder Python programmieren. Insbesondere Geschäftsanwender werden sich diese Kenntnisse auch nicht aneignen wollen und vermeiden Analysefunktionen, die solche Skriptsprachen erfordern. 2017 werden Advanced Analytics (ausgefeilte, leistungsstarke Analysefunktionen) zugänglicher und für Geschäftsanwender für den täglichen Einsatz verfügbar sein.

10. Daten- und Analysekompetenz steht im Mittelpunkt

Es gibt keinen Beruf, der heute ohne Daten auskommt. Das bedeutet, dass Daten- und Analysekompetenz immer wichtiger werden wird – unabhängig von der Rolle und der Position im Unternehmen. Seit zwei aufeinanderfolgenden Jahren wurde diese Kompetenz als die wichtigste Einstellungsvoraussetzung bei LinkedIn aufgeführt. Am Arbeitsplatz werden intuitive Analytics-Plattformen eingeführt, die auf allen Ebenen Entscheidungsgrundlagen bereitstellen. Aber die Fähigkeiten der Mitarbeiter bilden das Fundament diese zu nutzen.

Dieser Beitrag ist der dritter Teil der Datenstrategie-Serie:

Teil 1: Die Notwendigkeit einer modernen Datenstrategie im Zuge der digitalen Transformation
Teil 2: Steigern smarte Erkenntnisse den Business Impact?
Teil 3: 10 BI & Analytics Trends, die in keiner Datenstrategie fehlen dürfen
Teil 4: Wie unterstützen Analysen Ihre Entscheidungsfindung?
Teil 5: Erstickt Innovation zwischen Berichtswesen und Data Discovery?

Möchten Sie mehr zu den neuesten Trends im Bereich Business Intelligence und Business Analytics erfahren? Dann freue ich mich Sie auf unserem Live-Webinar am 21. Februar 2017 begrüßen zu dürfen.

Update 22 Feb 2017: Sie haben das Webinar verpasst? Dann können Sie hier die Aufzeichnung ansehen: