Facebook, Lügen und Infowars

Facebook, Lügen und Infowars
Versteht Mark Zuckerberg seine eigene Plattform noch? Das jüngste Interview mit dem Facebook-Chef lässt daran ernste Zweifel wachsen.

Mark Zuckerberg sieht Facebook als Werkzeug für zwischenmenschliche Beziehungen. Dass Menschen ein Interesse daran haben könnten, andere bewusst und systematisch zu belügen, kommt in seiner Gedankenwelt nicht vor - jedenfalls wenn man Kara Swishers Recode-Interview mit dem Facebook-Chef liest. Es geht um gezielte Falschinformationen und "Fake News", und Zuckerberg sagt: "I just don’t think that it is the right thing to say, “We’re going to take someone off the platform if they get things wrong, even multiple times.” Das ist seine Kernüberzeugung: Er hält es nicht für richtig, jemanden von Facebook auszuschließen, wenn sie... und da wird die Übersetzung dann interessant. Für "get things wrong" passt eigentlich "sich irren" am besten. Man darf sich auf Facebook also irren. Das ist gut so.

In dem Gespräch nimmt Kara Swisher aber "Infowars" als Beispiel. Das ist eine Publikation, die ein Geschäftsmodell aus Verschwörungstheorien und Bullshit gemacht hat. Alex Jones, der Kopf dahinter, "irrt" sich nicht. Er erfindet "Fake News" und verdient Geld damit, sie zu verbreiten. (Mehr zu Alex Jones von 2017 auf welt.de.) Das ist eher irre als irren, und vor allem sind es offensichtliche Lügen, die mit der Wirklichkeit nichts zu tun haben.

Das hat mit "getting things wrong" nichts mehr zu tun. Aber damit umzugehen fällt Zuckerberg und Facebook sehr schwer. Zur Wahlkampf-Beeinflussung Russlands erzählt Zuckerberg, dass Facebooks Sicherheitsteams nach klassischen Hacker-Angriffen und Phishing gesucht haben, aber mit Fehlinformations-Kamapgnen einfach nicht gerechnet haben. Wer also Facebook so verwendet hat, wie es gedacht ist, aber problematische Inhalte postet, fiel bisher den Überprüfungsmechanismen nicht auf. Inzwischen hat Facebook laut Zuckerberg nicht nur 20.000 menschliche Prüfer, sondern auch künstliche Intelligenz gebaut, um "fake accounts" und koordinierte Netzwerke von "un-authentischer Aktivität" zu finden.

Ein Problem oder kein Problem? Eine Frage der Perspektive

Daran wird das Problem noch mal deutlich. Wenn eine Person einen echten Account hat und authentisch handelt, dann sieht Facebook keinen Handlungsbedarf. Das kulminiert in Zuckerbergs Aussagen zur Holocaust-Leugnung. Zuckerberg, selbst Jude, bringt das Beispiel von selbst ins Interview ein und sagt auch da wieder: Ihn stört das zwar selbst, aber "there are things that different people get wrong". Selbst bei der Holocaust-Leugnung will Zuckerberg keine Absicht unterstellen. Auch in seiner späteren Klarstellung sagt er: Absichtliche Holocaust-Leugner will er nicht inhaltlich verteidigen, aber er sieht Facebooks Aufgabe nicht darin, "Fake News" komplett zu unterbinden. Sie sollen sich bloß nicht weit verbreiten.

Man darf also weiterhin auf Facebook alles sagen, aber die ganz schlimmen Lügen werden über den Newsfeed nicht an andere Leute weiterverteilt. Das ist angesichts der Größe der Plattform ziemlich kurzsichtig. Wenn ich eine Facebook-Gruppe mit 8.000 Mitgliedern habe, ist das bei 2,2 Milliarden aktiven Nutzern ein Tropfen auf den heißen Stein, zumal wenn Postings in dieser Gruppe sich gar nicht über die Gruppe hinaus verteilen oder nur den engsten Freunden dieser Leute privat weitergeleitet werden. Aus Sicht von Mark Zuckerberg kein Problem, so lange hier keine aktive Gewalt geplant wird.

Wenn sich aber in 31 kleinen und großen Facebook-Gruppen rund 180.000 völkische Heimatschützer, Neonazis, Identitäre und AfD-Anhänger austauschen über ihren erhofften Bürgerkrieg gegen Merkel-Deutschland und andere Spinnereien, kann man das schon als größeres Problem verstehen. Die "Die Partei"-Aktion von September 2017, mit der sie 31 AfD-gegründete geschlossene Facebook-Gruppen übernommen haben, hat ein deutliches Schlaglicht darauf geworfen.

Mark Zuckerbergs Kerngedanke zieht sich durch: Menschen eine Stimme geben, so dass sie ihre Meinung sagen können, wird nur dann eingeschränkt, wenn Facebook eine Gefahr für Leib und Leben erkennt. Im Interview mit Kara Swisher nennt er das Beispiel Myanmar. Dort hat Facebook laut eines UN-Reports eine "entscheidende" Rolle bei der Gewalt gegen Rohingya gespielt. In Myanmar löscht Facebook inzwischen hasserfüllte Inhalte schneller, statt nur ihre Verbreitung auf der Plattform einzuschränken. In Deutschland sorgt das hiesige Recht dafür, dass Facebook (und andere soziale Netzwerke) bestimmte Inhalte ebenfalls schnell löschen - mit verfassungsfeindlichen Symbolen funktioniert das ganz gut.

Aber darauf beschränkt sich Facebook auch: Gewaltaufrufe löschen, Gesetze einhalten. Das bedeutet aber auch: Judenfeindlichkeit, Rassismus und die generelle Abwertung von Menschen bleiben verfügbar, wenn sie sich nicht in die Worte einer konkreten Bedrohung kleiden.

Mark Zuckerberg muss seine eigene Plattform besser verstehen

Haltung ist das "Verweigern gegenüber der Veröffentlichung jedweder möglichen Denkweise eines Themas", hat Thomas Knüwer neulich geschrieben. Da ging es um die "Zeit" und deren pro/contra zu Seenotrettung im Mittelmeer. Ein journalistisches Medium braucht eine Haltung. Braucht ein soziales Netzwerk mit 2,2 Milliarden Nutzern auch eine?

Ich denke schon. Das ist für Facebook keineswegs leicht, denn Facebook hat in manchen Weltgegenden parallel zum technischen Internet die Rolle einer Infrastruktur übernommen. Der öffentliche Raum muss mehr aushalten als eine privat gesteuerte Plattform. Eine Weltfirma wie Facebook muss beiden Ansprüchen gerecht werden. Ich beneide Zuckerberg keineswegs und kann ihm auch keine einfache Lösung vorschlagen. Aber es reicht nicht, Facebook als Netzwerk zwischen Einzelpersonen zu betrachten. Um zu einer Haltung zu finden, muss Zuckerberg anerkennen, dass es auf sozialen Netzwerken auch Millionen institutionalisierte Akteure (und Teilnetzwerke) gibt, die über Einzelpersonen nicht zu fassen sind.

Konkretes Beispiel: Alex Jones wurde jüngst für 30 Tage von Facebook verbannt. Das gilt aber nur für seinen persönlichen Account. Infowars verbreitet seine Inhalte weiterhin, Alex Jones selbst taucht in Streams von andern Gleichgesinnten auf und verbreitet seine kruden Thesen weiter, jetzt zusätzlich mit dem selbstgewählten, ebenfalls irreführenden Qualitätsstempel "Zensuropfer". Wenn Mark Zuckerberg Facebook wirklich steuern will, muss er sein eigenes Verständnis von Facebook erweitern. (Für YouTube lässt sich diese Diskussion übrigens genauso führen, aber da gibt es keinen so prominenten einzelnen Kopf an der Spitze wie Mark Zuckerberg, der diese Themen öffentlich diskutiert.)

Was heißt das jetzt für uns, als Seitenbetreiber, Gruppenadmins und Veranstaltungsersteller? Wir können eine Haltung haben, welche Posts wir auf unseren Seiten zeigen wollen, wir können die entsprechenden Leute blocken & gegebenenfalls anzeigen und damit in unseren eigenen Communities eine christliche, menschenfreundliche Haltung schaffen - zumindest im Kleinen.

Vielen Dank für’s Lesen & Mitdenken!


Im Blog Confessio Digitalis schreibe ich meine Beobachtungen, Links und Interviews zu den Themen Digitalisierung, Digitale Kirche und digitalisierte Welt auf. Ich bin erreichbar auf Twitter als @dailybug.

P.S.: Leser*innen haben mich darauf hingewiesen, dass "Digitalis" auch der Name der Fingerhut-Pflanzen ist, die zu Gift verarbeitet werden können. Das lässt den Blogtitel "Confessio Digitalis" natürlich ein bisschen fies klingen. Andererseits behandelt man mit Digitalis-Präparaten auch Herzprobleme. Und dass das digitale Herz der Kirche besser schlägt, ist mir ein Anliegen. Deswegen lasse ich den Namen des Blogs so - nehmt es als Präparat!

weitere Blogs

Symbol Frau und Sternchen
Geschlechtsneutrale oder geschlechtssensible Sprache erhitzt seit Jahren die Gemüter. Nun hat die Bayrische Landesregierung das Gendern verboten. Die Hessische Landesregierung will das Verbot ebenfalls einführen.
Eine Ordensschwester im Kongo wurde wieder freigelassen – weil der Bandenchef keinen Ärger wollte.
Ein spätes, unerwartetes Ostererlebnis der besonderen Art