Generation Y: Was erwarten Digital Natives von der Arbeitswelt?

Seattle: Space Needle
Innovation kann nicht diktiert werden, sondern muss erw├╝nscht sein

Die Generation Y, zwischen 1977 und 1998 geboren, gilt als sehr gut ausgebildet. Sie sind als Digital Natives in der digitalen Welt aufgewachsen und rasche Ver├Ąnderung gewohnt. Sie gelten als kreativ und technikaffin. W├Ąren dies nicht die idealen Kandidaten, um die Digitalisierung bei Banken voranzutreiben, um Datensch├Ątze mittels Data Science zu erschlie├čen und um Fachwissen, Gesch├Ąftsverst├Ąndnis und Kreativit├Ąt zu vereinen?

Als potentieller Arbeitgeber stellt sich dar├╝ber hinaus noch eine viel wesentlichere Frage: Wie komme ich an die High Potentials dieser Generation und wie kann ich sie halten? Tats├Ąchlich besteht f├╝r etablierte Unternehmen sogar akuter Handlungsbedarf, um weiterhin als Arbeitgeber attraktiv zu bleiben. Allein mit h├Âheren Geh├Ąltern und Prestige klappt das nicht. Es ist vielmehr die intrinsische Motivation und die Sinnfrage, die hier zum Zuge kommen.

Traditionelle Unternehmenskulturen sind eine H├╝rde f├╝r die Generation Y und der Digitalen Transformation gleicherma├čen. Heute ver├Ąndern sich die M├Ąrkte so rasant, dass Unternehmen nur erfolgreich sein k├Ânnen, wenn sie z├╝gig antizipieren und reagieren. Jedoch setzen die meisten Unternehmen mehr auf Risikominimierung als auf Entscheidungsfreiheit und Fortschritt: Informationen werden zur├╝ckgehalten oder gefiltert, Strukturen und Prozesse sind verkrustet und aufgebl├Ąht, tats├Ąchliche Entscheidungen werden nur von wenigen getroffen und nur z├Âgerlich kommuniziert.

Dies steht den Digital Natives im Weg. Die Generation Y braucht eine Arbeitsatmosph├Ąre, die zu ihr passt. Dies muss in die Kultur der Unternehmen ├╝bergehen, in die Arbeitsweise und Entscheidungsphilosophie. B├╝rokratie muss auf ein Minimum reduziert werden, um schnelles Handeln zu erm├Âglichen. Innovation kann nicht diktiert werden, sondern muss erw├╝nscht sein. Ideen k├Ânnen durch jeden, ├╝berall und zu jeder Zeit entstehen ÔÇô man muss ihnen nur den Freiraum geben.

Quantitative Finance Applications in R

Do you want to do some quick, in depth technical analysis of stock prices?

After I left CERN to work as consultant and to earn an MBA, I was engaged in many exciting projects in the finance sector, analyzing financial data, such as stock prices, exchange rates and so on. Obviously there are a lot of available models to fit, analyze and predict these types of data. For instance, basic time series model arima(p,d,q), Garch model, and multivariate time series model such as VARX model, state space models.

Although it is a little hard to propose a new and effective model in a short time, I believe that it is also meaningful to apply the existing models and methods to play the financial data. Probably some valuable conclusions will be found. For those of you who wish to have data to experiment with financial models, I put together a web application written in R:

TSLA
Quantitative Finance Analysis in R (click image to open application)

5 Vorteile von Data Science

Deutschherrnbr├╝cke mit Skyline von Frankfurt am Main
Nicht nur Banken handeln ihre Daten als Gold des 21. Jahrhunderts

Keine Frage, die Digitalisierung pr├Ągt unseren Alltag und stellt auch an Banken immer neue Anforderungen. Daten werden als das neue Gold gehandelt. Und genau darin liegt die gro├če Chance der Banken: Finanzinstitute hatten schon immer enorme Mengen an Daten, oft aus vielen verschiedenen Quellen. Aber wie wird das volle Potenzial dieser Daten genutzt und wie werden Erkenntnisse aus diesen gewonnen? Hier kommt Data Science ins Spiel.

Wie gewinnen Sie Erkenntnisse aus Ihren Daten?

Data Science verwendet Methoden aus der Mathematik, Statistik und Informationstechnologie. Data Scientists verf├╝gen dar├╝ber hinaus ├╝ber ausgepr├Ągte Kommunikationsf├Ąhigkeiten auf s├Ąmtlichen Ebenen eines Unternehmens und bereiten Ergebnisse f├╝r das Management der einzelnen Fachabteilungen genauso verst├Ąndlich auf wie f├╝r den CEO. Banken k├Ânnen dazu neben Kontoinformationen auch Kundentransaktionen, Kundenkommunikation, Kanalnutzung, Kundenverhalten und Social-Media-Aktivit├Ąten. Vieles davon wird idealerweise nahezu in Echtzeit verarbeitet und ausgewertet.

Der Daten-Leverage-Effekt:

Da der Bankensektor weiterhin mit knappen Margen und und schwindendem Gewinn zu k├Ąmpfen hat, ist es f├╝r Finanzinstitute ├Ąu├čerst wichtig einen Hebel anzulegen, um Kosten zu reduzieren, Kunden zu binden und neue Einnahmequellen zu erschlie├čen. Einen solchen Daten-Leverage-Effekt erzielen Sie mit ihren Daten – sofern Sie auf Data Science und damit einhergehend auf eine erweiterte Analyse setzen.

Betrachten Sie diese f├╝nf Vorteile:

  1. Bessere Erkenntnisse: Gewinnen Sie eine neue Sicht auf Ihre treuesten und profitabelsten Kunden und verstehen Sie deren Bed├╝rfnisse bereits vor dem Kundengespr├Ąch. Datenanalyse kann helfen, den ├ťberblick zu behalten und Vorschl├Ąge f├╝r entsprechende Kommunikationskan├Ąle zu liefern.

  2. Kundenbindung: Sorgen Sie f├╝r zufriedenere Kunden und finden Wege treue Kunden zu belohnen. Zudem lassen sich Kunden identifizieren, die ggf. eine K├╝ndigung erw├Ągen. F├╝hren Sie dazu die Metriken “Loyalit├Ąt” und “Churn” ein, um hierf├╝r ein Messinstrument zu haben.

  3. Kosteng├╝nstiges Marketing: Entwickeln Sie effektives Marketing und Kampagnen, die an die richtige Person zur richtigen Zeit ausgerichtet sind. Dabei hilft Ihnen eine Cluster-Analyse, um Kundensegmente zu identifizieren.

  4. Minimieren von Risiken: Beschleunigen und verbessern Sie Ihr Risiko- und Fraud-Management durch Mustererkennung und Maschinenlernen.

  5. Handeln Sie: Behalten Sie Ihr Dashboard mit den wesentlichen Kennzahlen im Auge und ergreifen Ma├čnahmen, deren Auswirkung Sie zeitnah beobachten k├Ânnen. Nutzen Sie die Daten und Vorhersagen als Kernelement f├╝r Ihre Storyboards mit denen Sie das Top-Management ├╝berzeugen.

Nutzen Sie bereits die richtigen Werkzeugen zur Datenanalyse und Datenvisualisierung in Ihrem Unternehmen? Falls nicht, w├Ąre es nun an der Zeit ├╝ber den Einsatz von Data Science nachzudenken.

Beitrag zuerst ver├Âffentlicht am 19.06.2015 im Capgemini IT-Trends-Blog.

Data Science Toolbox: How to use R with Tableau

Recently Tableau released an exciting new feature: R integration via RServe. Tableau with R seems to bring my data science toolbox to the next level! In this tutorial I’m going to walk you through the installation and connecting Tableau with RServe. I will also give you an example of calling an R function with a parameter from Tableau to visualize the results in Tableau.

1. Install and start R and RServe

You can download base R from r-project.org. Next, invoke R from the terminal to install and run the RServe package:

> install.packages("Rserve")
> library(Rserve)
> Rserve()

To ensure RServe is running, you can try Telnet to connect to it:

Telnet

Protip: If you prefer an IDE for R, I can highly recommend you to install RStudio.

2. Connecting Tableau to RServe

Now letÔÇÖs open Tableau and set up the connection:

Tableau 10 Help menu

Tableau 10 External Service Connection

3. Adding R code to a Calculated Field

You can invoke R scripts in TableauÔÇÖs Calculated Fields, such as k-means clustering controlled by an interactive parameter slider:

Calculated Field in Tableau 10

4. Use Calculated Field in Tableau

You can now use your R calculation as an alternate Calculated Field in your Tableau worksheet:

Tableau 10 showing k-means clustering

Feel free to download the Tableau Packaged Workbook (twbx) here.

Further reading: Hands-On with R

[Update 26 Jun 2016]: Tableau 8.1 screenshots were updated with Tableau 10.0 (Beta) screenshots due to my upcoming Advanced Analytics session at TC16, which is going to reference back to this blog post.

Data Science: Enabling Research at CERN with Big Data

Wow, time flies. One year has passed since I started to work at CERN as a data scientist. CERN, surrounded by snow-capped mountains and Lake Geneva, is known for its particle accelerator Large Hadron Collider (LHC) and its adventure in search of the Higgs boson. Underneath the research there is an tremendous amount of data that are analysed by data scientists.

Filters, known as High Level Triggers, reduce the flow of data from a petabyte (PB) a second to a gigabyte per second, which is then transferred from the detectors to the LHC Computing Grid. Once there, the data is stored on about 50PB of tape storage and 20PB of disk storage. The disks are managed as a cloud service (Hadoop), on which up to two millions of tasks are performed every day.

High Level Trigger data flow
High Level Trigger data flow, as applied in the ALICE experiment

CERN relies on software engineers and data scientists to streamline the management and operation of its particle accelerator. It is crucial for research to allow real-time analysis. Data extractions need to remain scalable and predictive. Machine learning is applied to identify new correlations between variables (LHC data and external data) that were not previously connected.

So what is coming up next? Scalability remains a very important area, as the CERN’s data will continue to grow exponentially. However, the role of data scientists goes much further. We need to transfer knowledge throughout the organisation and enable a data-driven culture. In addition, we need to evaluate and incorporate new innovative technologies for data analysis that are appropriate for our use cases.