Herr Hagen, Sie haben die erste Big-Data-Professur Deutschlands inne. Bekannt für die effiziente Analyse und Nutzung großer Datenmengen sind eigentlich US-Konzerne wie Google & Co. Wozu braucht es eine Big-Data-Professur?
Wir wollen spannende Fragen finden, die sich dank großer Datenmengen beantworten lassen. Das macht Google bestimmt auch – behält das aber weitgehend für sich. Dagegen ist unser Ziel, darüber auch zu veröffentlichen, mitzuteilen, was wir gefunden haben. Spannend für die Wissenschaft ist dabei etwa information retrieval: die Suche in großen Textdatenmengen. Wenn ich etwa eine Hintergrundrecherche gemacht und eine Handvoll Dokumente gefunden habe, die ich interessant finde, ist es immer schwierig herauszufinden, was ich mir noch alles ansehen müsste. Wenn ich weiß: Fünf Texte zu finden, hat mich zehn Minuten gekostet – dann dauert das Weiterwühlen, um die nächsten 50 relevanten Dokumente zu finden, vielleicht mehr als eine halbe Stunde. Bekomme ich diese Dokumente dagegen automatisch vorgeschlagen, würde mir das viel Zeit sparen.