Soziale Medien: Forscher fischen in der Datenflut

Datenbestand - stored data
Datenbestand - stored data(c) www.BilderBox.com (www.BilderBox.com)
  • Drucken

Wie findet man die Nadel im Datenhaufen? In Wien arbeiten Forscher an neuen Methoden, die eine bessere Suche ermöglichen sollen.

Die Idee kam ihr, weil sie selbst gern Bilder auf Flickr und Videos auf YouTube ansieht. „Mir ist aufgefallen, dass immer wieder das Gleiche gezeigt wird“, sagt die an Uni und TU Wien tätige Informatikerin Maia Zaharieva. Wie so viele suchte sie aber das Besondere: Szenen, die sich aus der Masse abheben. Also etwa statt dem hundertsten ähnlich wirkenden Konzertmitschnitt das eine Interview mit dem Star. Wie aber findet man dieses in der Unmenge an Material, das täglich ins Internet geladen wird?

Was folgte, waren vier Jahre Grundlagenforschung in einem vom Wiener Wissenschafts-, Forschungs- und Technologiefonds (WWTF) geförderten Projekt, das kürzlich endete. In diesem arbeitete Zaharieva auch eng mit Statistikern zusammen: Denn es sei vor allem darum gegangen, in den Daten besonders herausstechende Eigenschaften zu identifizieren und herauszufinden, wie sich diese automatisiert herausfiltern lassen. Gleich zu Beginn hatten die Forscher ein Aha-Erlebnis: Nach den ersten Recherchen stellten sie fest, dass es zwar viele wissenschaftliche Ansätze dazu gibt, aber die meisten nur für bestimmte Daten funktionierten. Daten in Videos seien besonders komplex: „Die Informationen ändern sich ständig: Bewegung, Bildkomposition, Farben variieren. Dazu kommen die permanent wechselnden Audioinformationen“, erklärt Zaharieva. Die Forscher sprechen von „hochdimensionalen Daten“.

Ansätze veralten rasch

Eine weitere Herausforderung war die Schnelllebigkeit. Zwar wisse jeder, wie rasch sich Technologien ändern; richtig bewusst werde das aber erst in der Arbeit mit Daten: „Ein zehn Jahre alter Ansatz funktioniert heute oft nicht mehr“, sagt Zaharieva. Daher galt es – stets in Kooperation mit Forschern der TU Wien – neue Methoden zu entwickeln, die große Mediensammlungen eigenständig auf charakteristische Eigenschaften untersuchen. Dabei interessierten nicht nur von Nutzern angegebene Metadaten wie Titel, Interpret oder Genre, sondern „Eigenschaften, die Videos ausmachen“, wie konkrete Objekte, Farbverlauf, Musik oder Sprache. Die Forscher entwickelten einen Algorithmus, der diese erkennt und ähnliche Merkmale zu Clustern gruppiert. „Unsere Methode orientiert sich also nicht nur an Schlagworten, sondern an dem, was tatsächlich im Video zu sehen und zu hören ist“, sagt Zaharieva.

Bei der fachlichen Erkenntnis habe man vor allem vom Miteinander der Disziplinen profitiert. Das sei, wenngleich allseits hochgelobt, noch nicht selbstverständlich: Mitunter entwickle jede Disziplin eigene Methoden für sehr ähnliche Probleme. Man müsse die Bereiche also dazu bringen, miteinander zu arbeiten und eine gemeinsame Sprache zu finden. Das Team um Zaharieva will die Kooperation jedenfalls weiterführen. Auch wenn die Projektfinanzierung Ende September endete.

("Die Presse", Print-Ausgabe, 15.10.2016)

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.