Hat Facebook die US-Wahl entschieden?

Im US-Wahlkampf waren unzählige gefälschte Nachrichten im Umlauf. Besonders Facebook steht in der Kritik, Donald Trumps Sieg erst ermöglicht zu haben. Ist die Kritik berechtigt?

Mark Zuckerberg hat gerade keine leichte Zeit. Seit Trumps überraschendem Triumph steht der Facebook-Boss schwer in der Kritik. Der Vorwurf: Das soziale Netzwerk habe zu wenig gegen die zahlreichen Falschmeldungen unternommen, die als seriöse Nachrichten getarnt immer öfter die Timelines der Nutzer fluten und Trump vielleicht sogar den Sieg beschert haben.

Die Anschuldigungen hat Zuckerberg nun zurückgewiesen. Bei der Branchenkonferenz "Techonomy" wurde er gefragt, ob Facebook samt seiner Algorithmen, die die Timelines der Nutzer bestimmen, zur Wahl Trumps beigetragen haben könnte. "Ich persönlich halte es für eine ziemlich verrückte Idee, dass falsche News auf Facebook, die nur einen sehr geringen Anteil der Inhalte ausmachen, die Wahl auf irgendeine Weise beeinflusst haben könnten."

Ist es wirklich so verrückt, wie Zuckerberg sagt?

66 Prozent der Amerikaner beziehen ihre Nachrichten mittlerweile auch aus den sozialen Netzwerken. Das machten sich im US-Wahlkampf gleich eine ganze Reihe kleinerer Pro-Trump-Websites zunutze. Ihre Gemeinsamkeit: Große Reichweite auf Facebook, geringe Wertschätzung der Fakten. Falschmeldungen über Hillary Clinton wurden hunderttausendfach von Nutzern verbreitet. Ihre Anklage wegen der E-Mail-Affäre sei bereits fix. Obama ziehe nach einem Trump Sieg nach Kanada. Über die trumpkritische Fox News-Moderatorin Megyn Kelly hieß es, sie sei vom Sender gefeuert worden. Aber nicht nur seine Gegner, auch Trump selbst wurde Opfer erfundener Nachrichtenereignisse der Gegenseite, etwa mittels gefälschter Tweets.

Nichts veranschaulicht das Problem deutlicher, als die Geschichte einer Kleinstadt in Mazedonien und ihre Rolle im US-Wahlkampf. Aufgedeckt hat sie die US-Seite Buzzfeed. Deren Redakteure schauten sich einige der erfolgreichsten Wahlkampf-Falschmeldungen auf Facebook genauer an. Artikel wie jener, der auf der Seite WorldPoliticus.com mit "This is the news of the millenium!" angepriesen wurde. Die Story: Hillary Clinton wird im Jahr 2017 im E-Mail-Skandal angeklagt! Die Quelle: Ein anonymer FBI-Agent. Die Meldung hat keine Grundlage, sieht aber halbwegs seriös aus. Auf Facebook generierte sie laut Buzzfeed rund 140.000 Shares, Likes und Kommentare. Der Artikel wurde inzwischen von der Seite gelöscht.

Hat Facebook die US-Wahl entschieden?
US Democratic presidential nominee Hillary Clinton takes the phone of an employee to have a picture taken at a restaurant in Cleveland, Ohio, on October 31, 2016. Donald Trump stormed into Democratic territory as the campaign entered its final week Monday, determined to disprove polls and capture the White House as rival Hillary Clinton battles to contain the fallout from renewed FBI focus on her emails. / AFP PHOTO / Jewel SAMAD

Die journalisten recherchierten auch die Betreiber von WorldPoliticus und ähnlicher Seiten. Sie fanden heraus, dass die Fäden von mindestens 140 Trump-freundlichen Webseiten in der 45.000-Einwohner-Stadt Veles in Mazedonien zusammenlaufen. Die Betreiber seien größtenteils Mazedonier im Teenager-Alter und sie haben mit Trump in Wahrheit nichts am Hut. Allerdings haben sie gemerkt, dass reißerische und oftmals falsche Meldungen über Facebook eine Unmenge an Zugriffen generieren. Mit den Werbeinnahmen lässt sich in Mazedonien leicht ein Teenagerleben finanzieren. Die Auswirkungen für die Wahl sind hingegen nicht abschätzbar.

Flut der Fakes

Es ist nur ein kleiner Einblick in ein System, das massive Ausmaße angenommen hat. Von rund 1000 Artikel von Propaganda-Seiten auf Facebook waren laut Buzzfeed 38 Prozent auf rechten Seiten und immerhin 19 Prozent auf linken komplett oder größtenteils falsch. Außerdem gehörten jene Webseiten mit den meisten Falschmeldungen und Ungenauigkeiten zu jenen, die auf Facebook die meisten Shares und Likes generierten. Buzzfeed hat die Methodik und den vollständigen Datensatz der Untersuchung zum Download bereitgestellt.

Diese Zahlen widersprechen Zuckerberg und legen nahe, dass Facebook der ungeprüften politischen Propaganda Tür und Tor geöffnet hat. Die Betreiber dieser Seiten haben, so wie alle anderen, eine einfache Wahrheit erkannt: Artikel, die die Meinung des Lesers bestärken, bringen Klicks. Viele Klicks. Die Erkenntnis ist nicht neu, aber seit Journalisten und Verleger in Echtzeit die Zugriffszahlen und Verweildauern auf ihren Webseiten und auf ihren Smartphones ablesen, wie ein Arzt die Vitaldaten seines Patienten, ist sie aktueller denn je. Die etablierten Medien sind nach wie vor auf Werbegelder angewiesen, deren Höhe sich nach Zugriffen richtet. Bleiben die Klicks aus, stirbt der Patient. Werden Storys jedoch einfach aus der Luft gegriffen, ist die Glaubwürdigkeit schnell dahin.

So wie der Internet-Riese Google von der "Disruption“ der Geschäftsmodelle der klassischen Tageszeitungen profitiert, profitieren die Propagandaseiten von der Disruption der Wahrheit. Postfaktisches Zeitalter nennt sich das neuerdings. Ein in der Essenz irreführender Begriff, geht es doch um mehr, es geht um das Konzept der Wirklichkeit per se. Wenn in der Facebook-Timeline jeder mit seiner ganz eigenen Wirklichkeit konfrontiert ist, gibt es dann noch objektivierbare Fakten? Da wird dann auch der Klimawandel schnell von der Tatsache zur politischen Verhandlungsmasse, zu der man stehen kann, wie man eben will.

Die vorprogrammierte Spaltung der Gesellschaft

Gezielte Desinformation wäre auch gar nicht das Problem, würde der Facebook-Newsfeed der Wirklichkeit einer meinungspluralistischen Welt entsprechen. Doch so funktionieren Facebook und Twitter, und im Prinzip auch Google oder Bing, nicht. Angezeigt wird, was gefällt. Das Phänomen ist bekannt. Der amerikanische Autor Eli Pariser hat es in seinem gleichnamigen Buch bereits 2011 als "Filterbubble" beschrieben. Forscher der Universitäten Oxford und Stanford haben in Kooperation mit der Forschungsabteilung von Microsoft Daten von 50.000 Nutzern der "Bing Toolbar" ausgewertet und die dramatischen Effekte dieses Phänomens beschrieben. Das Ergebnis der kürzlich veröffentlichten Studie: Wer seine Nachrichten vorwiegend über Facebook konsumiert, liest Nachrichten aus dem "anderen Lager" noch seltener als andere Internet-Nutzer. Die Spaltung der Gesellschaft, sie ist vorprogrammiert.

Facebook arbeitet seit einiger Zeit hart daran, diese Filterblasen-These zu widerlegen. Eine im Mai 2015 im renommierten Fachblatt "Science" veröffentlichte Studie von drei Facebook-Mitarbeitern sollte den Beweis liefern. Sie kommt zu dem Ergebnis, dass eine algorithmisch herbeigeführte Filterblase, wenn es sie denn überhaupt gibt, nur sehr unbedeutend sei. Es seien vielmehr die Nutzer, die sich einfach nicht mit kontroversen Ansichten beschäftigen wollen. Kontroverse Inhalte werden demnach zwar ausgespielt, aber einfach nicht angeklickt.

In den Nullerjahren wurde das schon einmal als "Wikipedia-Wissen" beschrieben. Wissenserwerb entlang der eigenen Interessen. Damals konnte man sich noch auf die "intelligence of the crowd" verlassen, die tendenziöse Wikipedia-Artikel verhindert. Die Idee: Wenn ein Artikel von mehreren, teils hunderten Autoren bearbeitet wird, einigt man sich auf den kleinsten gemeinsamen, den objektiven Nenner. Nachzulesen ist so ein Diskussionsprozess in der Bearbeitungshistorie eines jeden Wikipedia-Artikels, von der „afrikanisierten Honigbiene“ bis "Donald Trump". Hier funktioniert das Internet noch. Nur die sozialen Medien, die funktionieren so nicht.

Den wichtigsten Grundsatz im Umgang mit Nachrichten sieht Kommunikationswissenschaftler Matthias Karmasin schon in der Antike grundgelegt. "Audiatur et altera pars – man möge auch den anderen Standpunkt anhören." Das sei eine der wesentlichsten Errungenschaften des zivilisierten Denkens – und gleichzeitig das größte Problem der "Filterblase" in den sozialen Netzwerken. "Im Echoraum der Algorithmen bekommt man abweichende Meinungen einfach nicht mehr vorgeschlagen." Man müsse als Leser also darauf achten, dass Facebook nicht die einzige Nachrichtenquelle bleibt. "Ansonsten wird es problematisch."

Dieser bewusste Konsum muss, sagt Karmasin, verstärkt auch in der Schule gelehrt werden. Nur so könne man lernen, eine Information, die einem Faktencheck standhält, von reinen Erfindungen, Verschwörungstheorien oder Behauptungen zu unterscheiden. Das sei viel wichtiger als neue Regulative für Facebook, Twitter und Google einzuführen. Zumal sie rechtlich ohnehin schwer umzusetzen seien. Dazu dürfe man auch nicht auf den positiven Einfluss der sozialen Medien vergessen. "Sie spielen eine große Rolle in der Organisation der Zivilgesellschaft", sagt Karmasin. "Das sieht man immer wieder, wenn es zum Beispiel um Bauvorhaben oder Umweltschutz geht."

"Social Media Bots" sind Programme, die sich in sozialen Netzwerken als Menschen ausgeben. Wer diese Roboter steuert, bestimmt die Meinung, die sie vertreten und die ist zunehmend politisch. Anfangs wurden die Roboter eingesetzt, um Produkte zu bewerben. Hat man etwa auf Twitter die Nachricht geschrieben "mein Notebook spinnt schon wieder", hat ein vermeintlich hilfsbereiter Nutzer geantwortet: "Probier doch mal diese Software aus, um dein Gerät zu reparieren." Solche Roboter sind günstig, da sie heutzutage nicht mehr einzeln verkauft werden. Programmierer bieten Software ab etwa 5000 Euro an, mit der beliebig viele fingierte Facebook-Konten kreiert werden können.

Wahlkampf

Jetzt entdecken immer mehr politische Parteien die Roboter für sich. Nach den Fernsehduellen der US-Präsidentschaftskandidaten fanden Forscher heraus, dass jede dritte Pro-Trump-Nachricht auf Twitter von einem Roboter stammte. Bei Clinton waren es 22 Prozent. Die junge deutsche Partei AfD hat bereits angekündigt, beim Bundestagswahlkampf 2017 ebenfalls Roboter zu nutzen. Durch besser werdende künstliche Intelligenz wird es zunehmend schwerer, Roboter von realen Menschen zu unterscheiden. Einige Bots passen sich ihren Zielen an, indem sie das Verhalten anderer Facebook-Nutzer kopieren. Aktuelle Bots können auch kurze Unterhaltungen führen, anstatt bloß stur vorprogrammierte Nachrichten zu verteilen.

Kommentare