FM4-Logo

jetzt live:

Aktueller Musiktitel:

Datenvisualisierung

flickr.com, User kamiphuc (CC BY 2.0)

Bias in the Web

Der chilenische Suchmaschinen-Experte und Wissenschaftler Ricardo Baeza-Yates will aufklären, wie Daten, Design und Algorithmen im Web unsere Meinung beeinflussen.

von Christoph „Burstup“ Weiss

Einmal im Jahr findet an der Technischen Uni Wien die „Vienna Gödel Lecture“ statt, benannt nach dem österreichisch-amerikanischen Mathematiker Kurt Gödel. Dieses Jahr hat dort Professor Ricardo Baeza-Yates gesprochen. Der aus Chile stammende Informatiker war früher Vizepräsident der Forschungsabteilung von Yahoo. Heute hat er eine eigene Firma namens NTENT, mit der er neue, intelligente Suchalgorithmen entwickelt.

Den Namen NTENT (abgeleitet vom englischen intent, also Absicht) hat Baeza-Yates gewählt, weil er der Meinung ist, dass Algorithmen im Netz lernen müssen, die Intentionen der Userinnen und User besser einzuschätzen und zu berücksichtigen. Algorithmen waren deshalb auch ein wesentlicher Teil der „Gödel Lecture“ von Ricardo Baeza-Yates. Konkret geht es ihm derzeit nämlich um Aufklärung darüber, wie Bias, also Befangenheit, Verzerrungen und Vorurteile im Web entstehen.

Prof. Ricardo Baeza-Yates

Christoph Weiss

Ricardo Baeza-Yates

Sein Wunsch, über Voreingenommenheit im Netz zu sprechen, entstand während des amerikanischen Präsidentschaftswahlkampfs. Eine Welle an Falschmeldungen und Manipulationsversuchen erfasste die Sozialen Netzwerke im Internet. Verzerrungen, aber auch Filter und Algorithmen wurden diskutiert. Der Suchmaschinen-Pionier Baeza-Yates unterscheidet unterschiedliche Arten von Bias.

Data Bias

Zunächst gibt es die simpelste Form Data Bias, wo die Verzerrung auf Inhaltsebene stattfindet, etwa weil der Autor eines Artikels im Web politisch voreingenommen ist. Seine Überzeugungen und Ansichten beeinflussen den Artikel. „Das ist einfach zu verstehen und die meisten User können Data Bias gut einschätzen“, sagt Baeza-Yates im Interview mit FM4.

Interaction Bias

Die zweite Art von Verzerrung nennt Baeza-Yates Interaction Bias. Damit meint der Wissenschaftler die Beeinflussung des Verhaltens der User beim Websurfen durch das Design und die Präsentation im Web: „Zum Beispiel spielt die Positionierung eine wichtige Rolle. Im westlichen Kulturkreis lesen wir von links nach rechts und von oben nach unten. Inhalte, die im linken oberen Eck platziert sind, werden wichtiger eingeschätzt als Inhalte im rechten unteren Eck. Inhalte, die in der obersten Position einer Liste stehen, werden als wichtiger empfunden als Inhalte, die ganz unten stehen.“

Algorithm Bias

Die dritte und vielleicht wichtigste, weil am schwersten zu durchschauende Art von Verzerrung ist Algorithm Bias. Websites, wie z.B. der Newsfeed von Facebook, werden personalisiert aufgrund von Klicks, Likes, Gruppenzugehörigkeit usw. „Der User gerät in eine Filterblase, deren Basis das ist, was er bereits kennt. Das erscheint vielleicht ganz okay für ihn oder sie, doch man wird dann wenig Neues sehen.“

Während vielen Menschen bereits klar ist, dass sie in Sozialen Netzwerken einer Filterblase ausgesetzt sind, wissen die wenigsten, dass es mittlerweile selbstlernende, künstliche neuronale Netzwerke sind, die unsere Webinhalte personalisieren. Denn Machine Learning wird in diesem Bereich immer wichtiger. Userinnen und User können die Algorithmen nicht verändern - es seien die Betreiber der Websites, die sie verbessern müssten, sagt Baeza-Yates. Es gelte, Feedback-Loops zu verhindern.

Ausgleich der Verzerrung

„Ein guter Algorithmus sollte erkennen, wenn ein Klick eines Users bereits aufgrund einer Verzerrung durch einen Algorithmus durchgeführt wurde. Diese Verzerrung muss man ausgleichen. Suchmaschinen tun das bereits: Ein Klick auf Suchergebnis Nummer eins wird nicht so stark gewichtet wie ein Klick auf Suchergebnis Nummer zehn. Aber ich weiß nicht, wie sehr Social Networks das bereits tun. Zum Beispiel sollten Klicks auf sehr populäre Inhalte weniger stark gewichtet werden als Klicks auf Inhalte, die noch wenige Menschen mögen. Ich hoffe, sie tun das.“

Sowohl wir, die Userinnen und User, als auch künstliche neuronale Netzwerke, die unsere Informationen filtern, müssen lernen, das Entstehen von Verzerrungen und Filter-Bubbles besser zu verstehen.

mehr Netzkultur:

Aktuell: