5 Takeaways from Tableau’s Hybrid Transactional/Analytical Processing

What makes Hyper so fast?
The Future of Enterprise Analytics: Hyper can handle both OLTP and OLAP simultaneously. In the future it will address NoSQL and graph workloads.

1. What is Hyper’s key benefit?

Hyper is a Hybrid transactional/analytical processing (HTAP) database system and replaces Tableau Data Extracts (TDE). The change will be mostly transparent for end users, other than everything being faster. Hyper significantly improves extract refresh times, query times and overall performance.

2. What is Hybrid transactional/analytical processing?

As defined by Gartner:

Hybrid transaction/analytical processing (HTAP) is an emerging application architecture that “breaks the wall” between transaction processing and analytics. It enables more informed and “in business real time” decision making.

The two areas of online transaction processing (OLTP) and online analytical processing (OLAP) present different challenges for database architectures. Currently, customers with high rates of mission-critical transactions have split their data into two separate systems, one database for OLTP and one so-called data warehouse for OLAP. While allowing for decent transaction rates, this separation has many disadvantages including data freshness issues due to the delay caused by only periodically initiating the Extract Transform Load (ETL) data staging and excessive resource consumption due to maintaining two separate information systems.

3. Does Hyper satisfy the ACID properties?

Hyper, initially developed at the Technical University of Munich and acquired by Tableau in 2016, can handle both OLTP and OLAP simultaneously. Hyper possesses the rare quality of being able to handle data updates and insertions at the same time as queries by using hardware-assisted replication mechanisms to maintain consistent snapshots of the transactional data. Hyper is an in-memory database that guarantees the ACID properties (Atomicity, Consistency, Isolation, Durability) of OLTP transactions and executes OLAP query sessions (multiple queries) on the same, arbitrarily current and consistent snapshot.

4. What makes Hyper so fast?

The utilization of the processor-inherent support for virtual memory management (address translation, caching, copy on update) yields both at the same time: unprecedentedly high transaction rates as high as 100,000 per second and very fast OLAP query response times on a single system executing both workloads in parallel. This would support real-time streaming of data in future releases of Tableau. These performance increases come from the nature of the Hyper data structures, but also from smart use of contemporary hardware technology, and particularly nvRam memory. Additional cores provide a linear increment in performance.

5. What does this mean for Tableau?

With Hyper now powering the Tableau platform, your organization will see faster extract creation and better query performance for large data sets. Since Hyper is designed to handle exceptionally large data sets, you can choose to extract your data based on what you need, not data volume limitations. Hyper improves performance for common computationally-intensive queries, like count distinct, calculated fields, and text field manipulations. This performance boost will improve your entire Enterprise Analytics workflow.

Join our “The Future of Enterprise Analytics” events and get a sneak peak at upcoming features and the Tableau Roadmap: 14th of November in Düsseldorf and 6th of December in Frankfurt.

Data Science Toolbox: How to use Julia with Tableau

R allows Tableau to execute Julia code on the fly
R allows Tableau to execute Julia code on the fly

Michael, a data scientist, who is working for a German railway and logistics company, recently told me during an FATUG Meetup that he loves Tableau’s R and Pyhton integration. As he continued, he raised the raised the question for using functions they have written in Julia. Julia, a high-level dynamic programming language for high-performance numerical analysis, is an integral part of newly developed data strategy in the Michael’s organization.

Tableau, however, does not come with native support for Julia. I didn’t want to keep Michael’s team down and was looking for an alternative way to integrate Julia with Tableau.

This solution is working flawless in a production environment since several months. In this tutorial I’m going to walk you through the installation and connecting Tableau with R and Julia. I will also give you an example of calling a Julia statement from Tableau to calculate the sphere volume.

1. Install Julia and add PATH variable

You can download Julia from julialang.org. Add Julia’s installation path to the PATH environment variable.

2. Install R, XRJulia and RServe

You can download base R from r-project.org. Next, invoke R from the terminal to install the XRJulia and the RServe packages:

> install.packages("XRJulia")
> install.packages("Rserve")

XRJulia provides an interface from R to Julia. RServe is a TCP/IP server which allows Tableau to use facilities of R.

3. Load libraries and start RServe

After packages are successfully installed, we load them and run RServe:

> library(XRJulia)
> library(Rserve)
> Rserve()

Make sure to repeat this step everytime you restart your R session.

4. Connecting Tableau to RServe

Now let’s open the Help menu in Tableau Desktop and choose Settings and Performance >Manage External Service connection to open the External Service Connection dialog box:

TC17 External Service Connection

Enter a server name using a domain or an IP address and specify a port. Port 6311 is the default port used by Rserve. Take a look on my R tutorial to learn more about Tableau’s R integration.

5. Adding Julia code to a Calculated Field

You can invoke Calculated Field functions called SCRIPT_STR, SCRIPT_REAL, SCRIPT_BOOL, and SCRIPT_INT to embed your Julia code in Tableau, such as this simple snippet that calculates sphere volume:

6. Use Calculated Field in Tableau

You can now use your Julia calculation as an alternate Calculated Field in your Tableau worksheet:

Using Julia within calculations in Tableau (click to enlarge)
Using Julia calculations within Tableau (click to enlarge)

Feel free to download the Tableau Packaged Workbook (twbx) here.

Further reading: Mastering Julia

Gesundheitsrisiko Fehldiagnose: Ein Protokoll

Fehldiagnose und vorschnelle Entlassung aus dem Hochwaldkrankenhaus Bad Nauheim
Grob fahrlässig: Fehldiagnose und vorschnelle Entlassung aus dem Hochwaldkrankenhaus Bad Nauheim
Gestern, am Freitagabend, hatte ich eine Blinddarm-OP, eigentlich ein Routineeingriff. Mein Weg dort hin zeigt mir allerdings, dass der Umgang mit Patienten erschreckend fahrlässig ausfallen kann. Mein Risiko der Letalität (Sterblichkeit) für diesen Eingriff stieg dadurch von 0,1% auf 10%.

Meine Bauchschmerzen beginnen am Mittwoch gegen 19 Uhr. Kann ja mal vorkommen, geht bestimmt wieder weg. Gegen Mitternacht werden die Schmerzen unerträglich. Das sind keine gewöhnlichen Schmerzen mehr. Werde ich das noch bis morgen aushalten?

Ich kann vor Schmerzen kaum noch aufstehen und wähle die Nummer des ärztlichen Bereitschaftsdienstes 116117: „Ich habe keinerlei Diagnosemöglichkeiten, habe nur einen Rezeptblock bei mir. Fahren Sie zur Nachtapotheke, die haben alles was Sie brauchen.“

Mit diesen Schmerzen? Schwer vorstellbar. Ich rufe die Hotline meiner Krankenkasse an, bekomme den Rat einen Notruf über die 112 abzusetzen. Gesagt, getan. Keine zehn Minuten später, etwa um 00:30, holen mich zwei sehr engagierte Rettungssanitäter mit einem Rettungswagen ab.

Die Kapazitätsabfrage ergibt, dass die Notaufnahme in Bad Nauheim noch Platz hat. Während der Fahrt, ermitteln die Sanitäter meine Vitalwerte: Ruhepuls 50, sehr gut. Im Krankenhaus angekommen erfolgen weitere Untersuchungen: Ultraschall, Blutbild, Röntgen.

Auf dem Weg zum Röntgen muss ich erbrechen. Intravenös bekomme ich Schmerzmittel und etwas gegen Übelkeit verabreicht. Außer einer Erhöhung des CRP-Werts (Indikator für Entzündungen), kann der Arzt weiter nichts feststellen: „Das ist vermutlich eine Kolik. Bleiben Sie zwei Tage im Bett. Das geht wieder weg. Ich entlasse Sie jetzt. Sie können nach Hause.“

Es ist 3 Uhr nachts, Donnerstag. Ich habe immer noch Schmerzen und soll nach Hause? Eine weitere Rückfrage beim Arzt ergibt: „Ich kann Sie wegen sowas nicht stationär aufnehmen. Rufen Sie sich ein Taxi!“ Die Krankenpflegerin ruft mir eine Nummer zu. Prompt bin ich wieder zuhause.

Das Schmerzmittel wirkt, ich kann schlafen. Den Tag über nehme ich die Tabletten, die mir die Pflegerin mitgegeben hatte. Die Nacht von Donnerstag auf Freitag verlief ok. Freitag früh ist der Schmerz stechender. Vielleicht brauche ich mehr von diesen Tabletten? Ich gehe zum Hausarzt.

Dort angekommen, legt man mich sofort in das Therapiezimmer. Sieht man mir so sehr an, dass es mir nicht gut geht? Der Arzt stellt durch Tasten eine Abwehrhaltung fest. Grund genug mich wieder in ein Krankenhaus einzuweisen: „Sie kommen nun in ein anderes Krankenhaus. Die Notaufnahme in Bad Homburg erwartet Sie!“

In Bad Homburg stellt die Oberärztin per Ultraschall fest, dass mein Blinddarm entzündet und bereits geplatzt ist. Durch den Austritt in die freie Bauchhöhle erhöht sich das Risiko drastisch. Die Ärztin merkt an, ich hätte früher ins Krankenhaus kommen sollen, um eine solche Komplikation zu vermeiden. Eine Operation sei nun dringend erforderlich.

Noch während dem Aufklärungsgespräch, bekomme ich vorbereitende Infusionen. Eigentlich hätte ich vor der Operation nichts essen und trinken dürfen. Darauf kann man nun keine Rücksicht nehmen. Anschließend werde ich in den OP-Bereich eingeschleust. Ich bekomme ein Narkosemittel verabreicht, in wenigen Sekunden bin ich weg.

Nach erfolgreicher Operation in der Hochtaunus-Klinik Bad Homburg
Nach erfolgreicher Operation in der Hochtaunus-Klinik Bad Homburg
Offensichtlich ist alles gut gelaufen. Ich erwache im Aufwachraum. Am Abend komme ich auf die Station. Die Nacht über wird mir das Schmerzmittel Piritramid im Drei-Stunden-Intervall verabreicht, immer mal wieder auch Antibiotika, damit die entzündete Bauchhöhle ausheilt.

Heute, am Samstag, geht es mir schon etwas besser – zumindest wenn ich mich nicht bewege. Aufsetzen ist trotz regelmäßig verabreichtem Piritramid schmerzhaft. Das liegt auch an den beiden Drainagen, die ich noch ein paar Tage im Bauch haben werde. Immerhin kann ich mit diesem Medikament gut schreiben und mit Euch meine Erfahrungen zum Risiko Fehldiagnose teilen.

Social Media and the Customer-centric Data Strategy #data17 #resources

Social media marketing mix
Do you analyze your social media marketing mix? | Photo Credit: via Richard Goodwin

With over 3 billion active social media users, establishing an active presence on social media networks is becoming increasingly essential in getting your business front of your ideal audience. These days, more and more consumers are looking to engage, connect and communicate with their favorite brands on social media.

Adding social media to your customer-centric data strategy will help boost brand awareness, increase followership, drive traffic to your website and generate leads for your sales funnel. In 2017, no organization should be without a plan that actively places their brand on social media, and analyzes their social media data.

Once you’ve started diving into social media analytics, how do you bring it to the next level? This session covers a customer-centric data strategy for scaling a social media data program.

Here are the links (i.e. additional resources) featured during the session to help you formulate your social media data program in order to build a stronger presence and retrieve powerful insights:

The Data Opportunity

TC17 Social Media Slides: The Data Opportunity

Focus on relevant metrics for your strategy

TC17 Social Media Slides: Sentiment Analysis

How to get Social Media in Tableau?

TC17 Social Media Slides: 3rd Party Platform Talkwalker

Tips to Level Up

TC17 Social Media Slides: Unshorten URLs in Tableau with R

Tutorials and Slide Set

The slides and tutorials presented at Tableau Conference on Tour in Berlin are also available on SlideShare, and on YouTube in English and German.

English Tutorials

German Tutorials

Slide Set

Data Strategy: Erstickt Innovation zwischen Berichtswesen und Data Discovery?

Abbildung 4: Interaktives Dashboard zur Darstellung von variablen Abhängigkeiten in Tableau
Abbildung 4: Interaktives Dashboard zur Darstellung von variablen Abhängigkeiten mit TensorFlow in Tableau

Der erste Schritt auf dem Weg zu besserer Entscheidungsfindung im Unternehmen, ist zu verstehen, wie gute (oder schlechte) Entscheidungen zustande kamen. Genau wie manche Unternehmen formale Prozesse für Aktivitäten haben, wie z. B. What-if-Analysen, prädiktive Wartung und Bestimmung von Abhängigkeiten in Korrelationen (siehe Abbildung 4), so müssen sie formale Prüfprozesse für Entscheidungen im gesamten Unternehmen einführen. Dies soll jedoch keinesfalls dazu dienen, die an schlechten Entscheidungen Beteiligten zu bestrafen, sondern den Entscheidungsfindungsprozess und -stil des Unternehmens im Allgemeinen verbessern.

Die Rolle der IT nähert sich hierbei wieder ihren Wurzeln an und statt eine Berichtefabrik für den Rest des Unternehmens zu unterhalten, wird die IT wieder zum Dienstleister und Partner, der die Infrastruktur für eine Data Discovery bereitstellt. IT-Mitarbeiter werden entlastet und erhalten den Freiraum, ihre professionelle Energie und Kreativität in den Dienst der Innovation zu stellen, und die Mitarbeiter in den Abteilungen sehen ihre Datenfragen nicht am Flaschenhals Berichtswesen verhungern. Nur so lassen sich die Investitionen in Business Intelligence und Analytics optimal in den Dienst der strategischen Ziele des Unternehmens stellen.

Abbildung 5: Anforderungen, Fähigkeiten und Ziele einer Datenstrategie (TC17-Präsentation)
Abbildung 5: Anforderungen, Fähigkeiten und Ziele einer Datenstrategie (TC17-Präsentation)

Moderne Unternehmen sehen sich vielen analytischen Anforderungen (siehe Abbildung 5) gegenüber, und diese Anforderungen werden unweigerlich schneller wachsen, als Unternehmen sie bedienen können. Es ist daher unerlässlich, Analytics als lebenswichtigen Teil der eigenen Datenstrategie zu verstehen und entsprechend zu planen.

Dabei ist ein umfassender Betrachtungswinkel sinnvoll, denn die wachsende Nachfrage nach Analysen und Erkenntnissen wird mehr und mehr von den kundenbezogenen Abteilungen wie Marketing oder Support ausgehen. Dementsprechend wird auch das Budget für Analytics verstärkt aus diesen Abteilungen kommen, statt aus einem zentralisierten IT- oder BI-Budget. Dort, wo viele Kundendaten vorhanden sind, wird der CMO bald mehr für Analytics ausgeben als der CIO. Und dort, wo Mitarbeiter über gut integrierte, intuitive Werkzeuge für komplexe Analysen verfügen, können gute Instinkte und datenbasierte Entscheidungen Hand in Hand für den Erfolg sorgen.

Dieser Beitrag ist der fünfte Teil der Datenstrategie-Serie:

Teil 1: Die Notwendigkeit einer modernen Datenstrategie im Zuge der digitalen Transformation
Teil 2: Steigern smarte Erkenntnisse den Business Impact?
Teil 3: 10 BI & Analytics Trends, die in keiner Datenstrategie fehlen dürfen
Teil 4: Wie unterstützen Analysen Ihre Entscheidungsfindung?
Teil 5: Erstickt Innovation zwischen Berichtswesen und Data Discovery?

TC17 Data Strategy Title Slide Möchten Sie mehr zu den neuesten Trends im Bereich Datenstrategie erfahren? Dann freue ich mich, wenn Sie an meinem Vortrag “Building an Enterprise Big Data & Advanced Analytics Strategy” auf unserer Tableau Conference TC17 (9.-12. Okt., Las Vegas) teilnehmen.