Alle reden über Data Science. Aber was bedeutet das für mein Unternehmen?

Fünf Schritte


Begeben Sie sich mit uns auf eine spannende Reise. Wie bringen Sie Data Science in Ihr Unternehmen? Wie entwickeln Sie eine Datenstrategie für ihr Unternehmen? Wie schöpfen sie Gewinne aus ihren verborgenen Datenschätzen? Mit diesen fünf einfachen Schritten bergen wir Ihre verborgenen Datenschätze.

1. Analyse Ihrer Analogen Geschäftsprozesse

Data Science ist vielfältig und mächtig. Aber jedes Data Science-Projekt startet mit der Analyse Ihrer existierenden analogen Geschäftsprozesse.

2. Potenzialanalyse für Digitale Geschäftsprozesse

So viele Daten? Aber wie machen Sie Ihr Unternehmen mit Hilfe dieser Daten effizienter und generieren Werte? Wie digitalisieren Sie Ihre Geschäftsprozesse und was bringt Ihnen das?
Wir hätten da ein paar Ideen... .

3. Digitalisierungsstrategie

Und nun? Wie transformieren Sie Ihr Unternehmen von analog zu digital? Welche Daten brauchen Sie dafür überhaupt in Zukunft? Was ist Ihre Datenstrategie? Wie managen und verarbeiten Sie diese Daten? Einfach alles sammeln in einem "Data Lake"? Bitte nicht!
Reden wir drüber!

4. Transformation

Sie implementieren mit unserer Hilfe die Daten- und Digitalisierungsstrategie und transformieren dadurch Ihr Unternehmen.
Wir unterstützen Sie dabei.

5. Wertschöpfung

Schöpfen Sie Werte aus der Digitalisierung Ihres Unternehmens. Wie zeigen Ihnen wie Sie Produktionsfehler vermeiden und effizienter werden.

Unser Ansatz

Typische Big Data Toolbox:


© iStockphoto.com SergZSV

Unsere Toolbox:


© iStockphoto.com SergZSV

Wenn alles, was Sie besitzen, ein Hammer ist, sieht jedes Problem wie ein Nagel aus. Das machen wir nicht. Wir konzentrieren uns nicht blind auf ein einziges Werkzeug. Wir kennen das gesamte Toolset. MapReduce, Spark und NoSQL lösen nicht alle Ihre Probleme, auch nicht maschinelles Lernen, Modellieren und Statistiken. Die richtige Kombination löst jedoch Ihr Problem!

Unsere Expertise


Unser Team bietet eine einzigartige Kombination aus jahrzehntelanger Erfahrung in praktisch allen Teilbereichen von Data Science. Dazu gehören:

Skalierbarkeit
Hauptspeicherdatenbanken
Big Data
Datenextraktion (ETL und ELT)
Deep Learning
Keras und Tensorflow
Datenanalyse in Python
Datenanalyse in R
Große Zeitreihen
Ereignisdaten
Datenbereinigung
Markovmodelle
Importance sampling
Bayes'sche Methoden
Data Lakes
Parameterschätzung
Informationsintegration
Big Data Analytics
Simulation diskreter Ereignisse
Klassisches maschinelles Lernen
Hochperformante Datenbanken

Unser Team


© Uwe Bellhäuser


Prof. Dr. Verena Wolf


© Uwe Bellhäuser
Verena Wolf ist ordentliche Professorin für Informatik an der Universität des Saarlandes. Sie erhielt ihren Abschluss der Informatik inklusive des Doktortitels 2008 von der Universität Mannheim. Im Jahr 2009 wechselte sie als Nachwuchsgruppenleiterin zum Exzellenzcluster für multimodale Interaktion und Computing an der Universität des Saarlandes, bevor sie 2012 den Ruf auf eine ordentliche Professur erhielt. Sie ist Mitglied des Zentrums für Bioinformatik der Universität des Saarlandes und Associate Editor des ACM Transactions on Modeling und Computer Simulation Journal. 2013 erhielt sie den "Young Innovator under 35 Award" des Technology Review Magazine. Sie ist häufiges Mitglied in wissenschaftlichen Programmkomitees zahlreicher internationaler Konferenzen. Ihre Forschung konzentriert sich auf probabilistische Modellierung und Datenwissenschaft, insbesondere auf statistische und numerische Analysemethoden, effiziente diskrete Ereignissimulationstechniken, Parameterschätzung, Sensitivitätsanalyse und der Simulation von seltenen Ereignissen. Sie genießt das Design von Hybridmodellen, die nicht ausschließlich auf einem deskriptiven / mechanistischen Ansatz beruhen, sondern durch Ergebnisse von maschinellen Lerntechniken ergänzt werden. Modellierung und Evaluierung von Computersystemen und Zuverlässigkeit und Fehlertoleranz und zur quantitativen Bewertung von Systemen. Ihre Forschung konzentriert sich auf probabilistische Modellierung und Datenwissenschaft, insbesondere auf statistische und numerische Analysemethoden, effiziente diskrete Ereignissimulationstechniken, Parameterinferenz, Sensitivitätsanalyse und seltene Ereignissimulation. Sie designt hybride Modelle, die nicht ausschließlich auf einem deskriptiven / mechanistischen Ansatz beruhen, sondern durch Ergebnisse von maschinellen Lerntechniken ergänzt werden.

Prof. Dr. Jens Dittrich


© Uwe Bellhäuser
Jens Dittrich ist Professor für Informatik im Bereich Datenbanken, Datenmanagement und Big Data an der Universität des Saarlandes. Frühere Zugehörigkeiten umfassen die Uni Marburg, die SAP AG und die ETH Zürich. Er erhielt den Outrageous Ideas and Vision Paper Award auf der CIDR 2011 (Konferenz über innovative Datensystemforschung), einen BMBF VIP Grant im Jahr 2011, einen Best Paper Award auf der VLDB 2014 (Konferenz über sehr große Datengrundlagen) und zwei CS Lehrauszeichnungen im Jahr 2011 und 2013, sowie mehrere Präsentationspreise, darunter eine Qualifikation für das interdisziplinäre deutsche Science-Slam-Finale 2012 und drei Präsentationspreise bei CIDR (2011, 2013 und 2015). Er war PC-Mitglied und Bereichsleiter / Gruppenleiter von renommierten internationalen Datenbankkonferenzen und -zeitschriften wie PVLDB / VLDB, SIGMOD, ICDE und VLDB Journal. Er gehört dem wissenschaftlichen Beirat der Software AG und hielt die Keynote auf VLDB 2017: “Deep Learning (m)eats Databases“. Er wird außerdem als Hauptredner beim DEEM-workshop (Datenmanagement für End-to-End Machine Learning) auf der SIGMOD 2018 tätig sein. An der Universität des Saarlandes ist er Mitorganisator der Data Science Summer School ( http://datasciencemaster.de ). Seine Forschung konzentriert sich auf den schnellen Zugriff auf Big Data, insbesondere auf Datenanalyse großer Datensätze, Skalierbarkeit, Hauptspeicherdatenbanken, Datenbankindexierung, Zeitreihen, Reproduzierbarkeit und Deep Learning. Er mag es, datenwissenschaftliche Probleme in Python zu programmieren, insbesondere mit der Keras und Tensorflow-Bibliothek für Deep Learning. Er programmiert datenwissenschaftliche Probleme in Python, insbesondere mithilfe der Keras und Tensorflow-Bibliothek für Deep Learning.

Thilo KrÜger


© Uwe Bellhäuser
Thilo Krüger war Doktorand der Informatik an der Universität des Saarlandes. Er arbeitet auf dem Gebiet der statistischen Modellierung und insbesondere der Simulation von (bio) chemischen Prozessen. Er hat einen Abschluss in Chemie (Nebenfach Informatik) vom Institut für Technische Chemie der Universität Hamburg. Er hat einen starken interdisziplinären Hintergrund, einschließlich Stochastik, Modellierung und Simulation, Bayes'scher Statistik, maschinellem Lernen, Datenanalyse, aber auch der Polymer- und technischen Chemie sowie der Epigenetik. Während seiner Arbeit als Doktorand veröffentlichte er mehrere Arbeiten auf internationalen Konferenzen im Bereich der statistischen Modellierung und war ein aktiver Gutachter für zahlreiche internationale Konferenzen und Fachzeitschriften. Er nutzt anspruchsvolle statistische Methoden zur Lösung von Problemen aus völlig neuen und vielfältigen Anwendungsbereichen.

Dr. Endre Palatinus


© Uwe Bellhäuser
Endre Palatinus ist Postdoktorand und Data Scientist am Lehrstuhl für Informationssysteme von Prof. Jens Dittrich am Institut für Informatik der Universität des Saarlandes, wo er seine Promotion im Jahr 2016 abschloss. Seine Forschung konzentriert sich auf Daten-Layouts, Robustheit und Code-Generierung von handgeschriebenen Abfragen zu ganzen Datenbanksystemen. Er hat Arbeiten in diesen Bereichen auf wichtigen Konferenzen und Workshops im Bereich Datenbanken und Informationssysteme veröffentlicht, darunter PVLDB / VLDB und IMDM. Darüber hinaus war er als externer Gutachter für mehrere renommierte Datenmanagementkonferenzen tätig, darunter ACM SIGMOD, VLDB, ICDE, EDBT, SOCC und BTW. Er löst datenwissenschaftliche Probleme in R und Tableau, insbesondere durch "data munging" und Visualisierung.

Potenzialanalyse


Für eine Potenzialanalyse kommen wir gerne zu Ihnen ins Unternehmen. Diese kostet einmalig 500 € und beinhaltet einen eintägigen Besuch zweier unserer Experten, sowie einen Bericht, aus dem hervorgeht, wie Sie Ihren Betrieb optimieren können. Bitte geben Sie hier Ihren Namen und Ihre e-Mailadresse an, damit wir so schnell wie möglich einen Termin für Ihre Analyse finden können.