Seit einigen Wochen sorgt ein Artikel in der angesehenen wissenschaftlichen Zeitschrift „Nature“ für heftige Diskussionen. Darin weisen die Autoren Germain Gauthier von der Bocconi Universität Mailand, Roland Hodler von der Universität St. Gallen sowie Philine Widmer und Ekaterina Zhuravskaya von der Paris School of Economics nach, dass der Newsfeed von Elon Musks Plattform X die politischen Ansichten der Nutzer merklich ändert.
Philine Widmer ist Assistenzprofessorin an der Paris School of Economics. Sie promovierte summa cum laude an der Universität St. Gallen und war als Post-Doktorandin an der ETH Zürich tätig. Widmer forscht zu Medien, Algorithmen und deren Auswirkungen auf politische Institutionen und die demokratische Meinungsbildung.
WELT: Sie und Ihre Co-Autorinnen haben bei einem Experiment festgestellt, dass der Algorithmus bei X die User politisch nach rechts steuert. Können Sie dies erklären?
Philine Widmer: Die Startseite von X bietet zwei Möglichkeiten. Man kann den chronologischen Newsfeed anschauen, wo man sieht, was User posten, denen man folgt, oder den vom Algorithmus kuratierten Newsfeed „Für Dich“. In unserer Studie haben wir sieben Wochen lang Menschen in den USA ausschließlich den algorithmischen oder chronologischen Feed benutzen lassen. Jene Studienteilnehmer, die vor dem Experiment den chronologischen Feed genutzt hatten und von uns dem algorithmischen zugeordnet wurden, sind in ihren politischen Einstellungen nach rechts gerückt. Bei den Menschen, die zuvor den algorithmischen Feed genutzt hatten und im Rahmen der Studie dem chronologischen Feed zugeordnet wurden, waren keine umgekehrten Effekte messbar. Ihre politischen Einstellungen blieben unverändert.
WELT: Und Sie folgern daraus?
Widmer: Dass der von X benutzte Algorithmus einen politisch nachhaltigen Effekt hat. Das ist aus verschiedenen Gründen spannend. Dieser Befund ist wissenschaftlich neu. So kamen Wissenschaftler, die mit Meta zusammenarbeiteten, kürzlich zu dem Schluss, dass die Algorithmen zumindest auf den Meta-Plattformen …
WELT: Wir reden vor allem von Facebook und Instagram …
Widmer: … keinen Effekt auf politische Meinungen haben. Die Studien konnten aber nur eine Richtung untersuchen, denn die Meta-Plattformen hatten alle nur algorithmische Newsfeeds. Die Forscher konnten den Algorithmus abstellen und fanden keine Effekte. Wir konnten aber beide Richtungen anschauen. Also, wenn man den Algorithmus abstellt, und wenn man ihn anstellt. Und da zeigte es sich, dass der Algorithmus sehr wohl einen Einfluss hat.
WELT: Ich selbst nutze auch X. Und wenn ich auf den algorithmischen Feed gehe, sehe ich nicht überwiegend politisch rechte Posts. Sondern eher – nehmen wir das aktuelle Thema Nahost – Posts von antiisraelischen oder israelkritischen Usern. Also von links. Meine Vermutung ist: Der Algorithmus weiß, dass ich pro-israelisch bin. Und lässt mich vor allem Posts sehen, die mich zum Widerspruch reizen.
Widmer: Vorweg: Wir messen Durchschnittseffekte. Wir können nicht ausschließen, dass einzelne User das anders erleben. Wir haben bei der Studie eine Heterogenitätsanalyse gemacht und fanden den Rechtsdrift vor allem bei Republikanern und Unabhängigen.
WELT: Die also vor der Studie schon rechts der Mitte standen und nun weiter nach rechts rückten.
Widmer: Wenn man vom chronologischen Feed auf den algorithmischen geht, sieht man mehr rechte Inhalte. Diese Änderung der gezeigten Inhalte betrifft auch Demokraten, die also eher links stehen. Ist das jetzt die Ausrichtung von X, hat die Plattform eine politisch rechte Agenda, die dazu führt, dass man diese Inhalte sieht, oder sind das einfach Korrelate, Ergebnis des algorithmischen Prinzips der Maximierung der Nutzerinteraktion? Unsere Studie kann diese Frage nicht beantworten.
WELT: Einige Leser würden sagen: „Wenn Menschen mit rechten Inhalten konfrontiert werden, rücken sie nach rechts, weil die Inhalte überzeugender sind. Auch bei uns gewinnt die AfD Wähler, weil sie die besseren Argumente hat. Wo ist das Problem?“
Widmer: Die Menschen in den sozialen Medien haben erwartbar unterschiedlich auf unsere Studie reagiert. Linke sind besorgt, dass dieser Algorithmus uns alle nach rechts schiebt. Und Leute, die rechts stehen, antworten so, wie Sie es formuliert haben. Ich möchte gerne auf den wissenschaftlichen Beitrag der Studie zurückkommen. Unsere Studie zeigt zum ersten Mal, dass die Feed-Algorithmen Meinungen beeinflussen können. Es geht dabei nicht um links oder rechts, sondern um den erstmalig erbrachten Nachweis, dass diese sehr komplexen, nicht transparenten Inhaltsaggregatoren nicht politisch neutral sind.
WELT: Sie möchten also keine politischen Handlungsempfehlungen geben?
Widmer: Unsere Studie liefert Evidenz, und welche politischen Schlüsse man daraus zieht, ist eine gesellschaftliche Frage. Wir leben im Informationszeitalter, und die Art, wie Informationen verarbeitet, aufbereitet und verbreitet werden, ist ziemlich weit weg von irgendeiner Form demokratischer Mitbestimmung. Als Forscherin frage ich mich: Wissen überhaupt die Leute bei X und anderen Plattformen selbst so genau, welche Korrelate ihr Algorithmus hat? Man muss sich bewusst sein, dass diese Empfehlungsmaschinen und die Modelle, die ihnen zugrunde liegen, extrem komplex sind. Unsere Studie ist ein Weckruf: Hey, wir haben diese supermächtigen Plattformen. Sie sind intransparent, sie haben möglicherweise eine eigene Agenda. Ein Teil ist sicher einfach das wirtschaftliche Kalkül, also dass man das Engagement der User erhöhen möchte. Aber ist da auch mehr? Und ist uns wohl damit? Wollen wir das so oder wollen wir mehr Debatte darüber haben?
Haftungsausschluss: Das Urheberrecht dieses Artikels liegt bei seinem ursprünglichen Autor. Der Zweck dieses Artikels besteht in der erneuten Veröffentlichung zu ausschließlich Informationszwecken und stellt keine Anlageberatung dar. Sollten dennoch Verstöße vorliegen, nehmen Sie bitte umgehend Kontakt mit uns auf. Korrektur Oder wir werden Maßnahmen zur Löschung ergreifen. Danke