Generation Y: Was erwarten Digital Natives von der Arbeitswelt?

Seattle: Space Needle
Innovation kann nicht diktiert werden, sondern muss erwünscht sein

Die Generation Y, zwischen 1977 und 1998 geboren, gilt als sehr gut ausgebildet. Sie sind als Digital Natives in der digitalen Welt aufgewachsen und rasche Veränderung gewohnt. Sie gelten als kreativ und technikaffin. Wären dies nicht die idealen Kandidaten, um die Digitalisierung bei Banken voranzutreiben, um Datenschätze mittels Data Science zu erschließen und um Fachwissen, Geschäftsverständnis und Kreativität zu vereinen?

Als potentieller Arbeitgeber stellt sich darüber hinaus noch eine viel wesentlichere Frage: Wie komme ich an die High Potentials dieser Generation und wie kann ich sie halten? Tatsächlich besteht für etablierte Unternehmen sogar akuter Handlungsbedarf, um weiterhin als Arbeitgeber attraktiv zu bleiben. Allein mit höheren Gehältern und Prestige klappt das nicht. Es ist vielmehr die intrinsische Motivation und die Sinnfrage, die hier zum Zuge kommen.

Traditionelle Unternehmenskulturen sind eine Hürde für die Generation Y und der Digitalen Transformation gleichermaßen. Heute verändern sich die Märkte so rasant, dass Unternehmen nur erfolgreich sein können, wenn sie zügig antizipieren und reagieren. Jedoch setzen die meisten Unternehmen mehr auf Risikominimierung als auf Entscheidungsfreiheit und Fortschritt: Informationen werden zurückgehalten oder gefiltert, Strukturen und Prozesse sind verkrustet und aufgebläht, tatsächliche Entscheidungen werden nur von wenigen getroffen und nur zögerlich kommuniziert.

Dies steht den Digital Natives im Weg. Die Generation Y braucht eine Arbeitsatmosphäre, die zu ihr passt. Dies muss in die Kultur der Unternehmen übergehen, in die Arbeitsweise und Entscheidungsphilosophie. Bürokratie muss auf ein Minimum reduziert werden, um schnelles Handeln zu ermöglichen. Innovation kann nicht diktiert werden, sondern muss erwünscht sein. Ideen können durch jeden, überall und zu jeder Zeit entstehen – man muss ihnen nur den Freiraum geben.

Quantitative Finance Applications in R

Do you want to do some quick, in depth technical analysis of stock prices?

After I left CERN to work as consultant and to earn an MBA, I was engaged in many exciting projects in the finance sector, analyzing financial data, such as stock prices, exchange rates and so on. Obviously there are a lot of available models to fit, analyze and predict these types of data. For instance, basic time series model arima(p,d,q), Garch model, and multivariate time series model such as VARX model, state space models.

Although it is a little hard to propose a new and effective model in a short time, I believe that it is also meaningful to apply the existing models and methods to play the financial data. Probably some valuable conclusions will be found. For those of you who wish to have data to experiment with financial models, I put together a web application written in R:

TSLA
Quantitative Finance Analysis in R (click image to open application)

5 Vorteile von Data Science

Deutschherrnbrücke mit Skyline von Frankfurt am Main
Nicht nur Banken handeln ihre Daten als Gold des 21. Jahrhunderts

Keine Frage, die Digitalisierung prägt unseren Alltag und stellt auch an Banken immer neue Anforderungen. Daten werden als das neue Gold gehandelt. Und genau darin liegt die große Chance der Banken: Finanzinstitute hatten schon immer enorme Mengen an Daten, oft aus vielen verschiedenen Quellen. Aber wie wird das volle Potenzial dieser Daten genutzt und wie werden Erkenntnisse aus diesen gewonnen? Hier kommt Data Science ins Spiel.

Wie gewinnen Sie Erkenntnisse aus Ihren Daten?

Data Science verwendet Methoden aus der Mathematik, Statistik und Informationstechnologie. Data Scientists verfügen darüber hinaus über ausgeprägte Kommunikationsfähigkeiten auf sämtlichen Ebenen eines Unternehmens und bereiten Ergebnisse für das Management der einzelnen Fachabteilungen genauso verständlich auf wie für den CEO. Banken können dazu neben Kontoinformationen auch Kundentransaktionen, Kundenkommunikation, Kanalnutzung, Kundenverhalten und Social-Media-Aktivitäten. Vieles davon wird idealerweise nahezu in Echtzeit verarbeitet und ausgewertet.

Der Daten-Leverage-Effekt:

Da der Bankensektor weiterhin mit knappen Margen und und schwindendem Gewinn zu kämpfen hat, ist es für Finanzinstitute äußerst wichtig einen Hebel anzulegen, um Kosten zu reduzieren, Kunden zu binden und neue Einnahmequellen zu erschließen. Einen solchen Daten-Leverage-Effekt erzielen Sie mit ihren Daten – sofern Sie auf Data Science und damit einhergehend auf eine erweiterte Analyse setzen.

Betrachten Sie diese fünf Vorteile:

  1. Bessere Erkenntnisse: Gewinnen Sie eine neue Sicht auf Ihre treuesten und profitabelsten Kunden und verstehen Sie deren Bedürfnisse bereits vor dem Kundengespräch. Datenanalyse kann helfen, den Überblick zu behalten und Vorschläge für entsprechende Kommunikationskanäle zu liefern.

  2. Kundenbindung: Sorgen Sie für zufriedenere Kunden und finden Wege treue Kunden zu belohnen. Zudem lassen sich Kunden identifizieren, die ggf. eine Kündigung erwägen. Führen Sie dazu die Metriken „Loyalität“ und „Churn“ ein, um hierfür ein Messinstrument zu haben.

  3. Kostengünstiges Marketing: Entwickeln Sie effektives Marketing und Kampagnen, die an die richtige Person zur richtigen Zeit ausgerichtet sind. Dabei hilft Ihnen eine Cluster-Analyse, um Kundensegmente zu identifizieren.

  4. Minimieren von Risiken: Beschleunigen und verbessern Sie Ihr Risiko- und Fraud-Management durch Mustererkennung und Maschinenlernen.

  5. Handeln Sie: Behalten Sie Ihr Dashboard mit den wesentlichen Kennzahlen im Auge und ergreifen Maßnahmen, deren Auswirkung Sie zeitnah beobachten können. Nutzen Sie die Daten und Vorhersagen als Kernelement für Ihre Storyboards mit denen Sie das Top-Management überzeugen.

Nutzen Sie bereits die richtigen Werkzeugen zur Datenanalyse und Datenvisualisierung in Ihrem Unternehmen? Falls nicht, wäre es nun an der Zeit über den Einsatz von Data Science nachzudenken.

Beitrag zuerst veröffentlicht am 19.06.2015 im Capgemini IT-Trends-Blog.

Data Science Toolbox: How to use R with Tableau

Recently, Tableau released an exciting feature that enhances the capabilities of data analytics: R integration via RServe. By bringing together Tableau and R, data scientists and analysts can now enjoy a more comprehensive and powerful data science toolbox. Whether you’re an experienced data scientist or just starting your journey in data analytics, this tutorial will guide you through the process of integrating R with Tableau.

Step by Step: Integrating R in Tableau

1. Install and start R and RServe

You can download base R from r-project.org. Next, invoke R from the terminal to install and run the RServe package:

> install.packages("Rserve")
> library(Rserve)
> Rserve()

To ensure RServe is running, you can try Telnet to connect to it:

Telnet

Protip: If you prefer an IDE for R, I can highly recommend you to install RStudio.

2. Connecting Tableau to RServe

Now let’s open Tableau and set up the connection:

Tableau 10 Help menu
Tableau 10 External Service Connection

3. Adding R code to a Calculated Field

You can invoke R scripts in Tableau’s Calculated Fields, such as k-means clustering controlled by an interactive parameter slider:

SCRIPT_INT('
kmeans(data.frame(.arg1,.arg2,.arg3),' + STR([Cluster Amount]) + ')$cluster;
',
SUM([Sales]), SUM([Profit]), SUM([Quantity]))
Calculated Field in Tableau 10

4. Use Calculated Field in Tableau

You can now use your R calculation as an alternate Calculated Field in your Tableau worksheet:

Tableau 10 showing k-means clustering

Feel free to download the Tableau Packaged Workbook (twbx) here.

Connect and Stay Updated

Stay on top of the latest in data science and analytics by following me on Twitter and LinkedIn. I frequently share tips, tricks, and insights into the world of data analytics, machine learning, and beyond. Join the conversation, and let’s explore the possibilities together!

Blog post updates:

Data Science Research: Unlocking the Secrets of the Universe with Big Data at CERN

Time really flies when you immerse yourself in the world of data science research and unravel the mysteries of the universe! It’s been an incredible journey over the past year as I’ve immersed myself in the world of data science at CERN. For those unfamiliar, CERN — set against a stunning backdrop of snow-capped mountains and tranquil Lake Geneva — is home to the Large Hadron Collider (LHC), the world’s most powerful particle accelerator. But what often goes unnoticed is the critical role that data science plays in powering this colossal machine and its quest for groundbreaking discoveries like the elusive Higgs boson.

The Data Tsunami: A Behind-The-Scenes Look

Imagine having to sift through one petabyte (PB) of data every second — yes, you read that right. That’s the amount of data generated by the LHC’s detectors. To make it manageable, high-level triggers act as an advanced filtering system, reducing this torrent of data to a more digestible gigabyte per second. This filtered data then finds its way to the LHC Computing Grid.

High-Level Trigger data flow, crucial for data science research in the ALICE experiment at CERN.
High-Level Trigger data flow, crucial for data science research in the ALICE experiment at CERN.

About 50PB of this data is stored on tape, and another 20PB is stored on disk, managed by a Hadoop-based cloud service. This platform runs up to two million tasks per day, making it a beehive of computational activity.

The Role of Data Science Research at CERN

Data scientists and software engineers are the unsung heroes at CERN, ensuring the smooth operation of the LHC and subsequent data analysis. Machine learning algorithms are used to discover new correlations between variables, including both LHC data and external data sets. This is critical for real-time analysis, where speed and accuracy are of the essence.

While managing the exponential growth of data is an ongoing challenge, the role of data scientists at CERN goes far beyond that. We are at the forefront of fostering a data-driven culture within the organization, transferring knowledge, and implementing best practices. In addition, as technology continues to evolve, part of our role is to identify and integrate new, cutting-edge tools that meet our specific data analysis needs.

The Road Ahead: A Data-Driven Journey

Looking ahead, scalability will remain a key focus as CERN’s data continues to grow. But the horizon of possibilities is vast. From exploring quantum computing to implementing advanced AI models, the role of data science in accelerating CERN’s research goals will only grow.

As I celebrate my one-year anniversary at CERN, I’m filled with gratitude and awe for what has been an incredible journey. From delving into petabytes of data to pushing the boundaries of machine learning in research, it’s been a year of immense learning and contribution.

For more insights into the fascinating universe of CERN and the role data science plays in it, be sure to follow me on Twitter for regular CERN updates and data science insights: