Big Data

Neuer Masterstudiengang "Data Engineering" am HPI

Potsdam, Oktober 2018 - Weltweit steigt die Masse an Daten rasant. Aus einer aktuellen, repräsentativen Umfrage des Bitkom wird deutlich: Jedes siebte Unternehmen schafft derzeit Stellen für Data Scientists - das sind fast vier Mal so viele wie noch im Vorjahr. Doch bislang gibt es auf dem Arbeitsmarkt nur wenige Experten. Seit dem Wintersemester 2018/19 haben auch Studierende des Hasso-Plattner-Instituts (HPI) die Möglichkeit, sich im Bereich Big Data zu spezialisieren.

In dem neuen Masterstudiengang "Data Engineering" der gemeinsamen Digital-Engineering-Fakultät von HPI und Universität Potsdam lernen die künftigen IT-Spezialisten, wie große Datenmengen verlässlich, effizient und sicher erhoben, gespeichert und analysiert werden. Als Data Engineers, Data Scientists oder Strategic Data Analysts haben sie in verschiedensten Branchen beste Berufsaussichten und exzellente Karrierechancen. Der Harvard Business Review kürte den Beruf des Datenwissenschaftlers bereits zum attraktivsten Job des 21. Jahrhundert.

"Prinzipiell verlassen sich Wissenschaft, Wirtschaft und Gesellschaft in ihren Entscheidungen zunehmend auf immer größere Datenmengen", erklärt Professor Felix Naumann, Leiter des Fachgebiets Informationssysteme am Hasso-Plattner-Institut (HPI) in Potsdam und Studiendekan der gemeinsamen Digital Engineering Fakultät mit der Universität Potsdam. Um mit Big Data umgehen zu können, benötigen Datenspezialisten Mathematik- und Informatikkenntnisse, aber idealerweise auch Domänenwissen im jeweiligen Anwendungsbereich. "Doch nicht nur das - bei ihrer Arbeit geht es auch darum, ethische und rechtliche Aspekte bei der Analyse zu berücksichtigen und die Ergebnisse verständlich darzustellen", so Naumann weiter.

Im forschungs- und praxisnahen Masterstudiengang "Data Engineering" beschäftigen sich künftig rund 30 Studierende pro Jahr mit der Datenanalyse, dem Datenmanagement sowie der Datenvisualisierung. Die künftigen IT-Spezialisten lernen, die immer komplexer werdenden Datenströme nicht nur aus verteilten Datenquellen zu erheben, sondern durch maschinelles Lernen echten Mehrwert und nützliche Erkenntnisse zu gewinnen - egal ob in der Finanzwirtschaft, der produzierenden Industrie oder für das eigene IT-Startup.