Die digitale Zensur

Was Google nicht finden lassen will, wird auch nicht gefunden – Zum Einfluss der Sozialen Medien auf Politik und Zeitgeschichte. Von Andreas Thonhauser
Social Media Week in Hamburg
Foto: dpa | Facebook, Google & Co beurteilen, was die politisch korrekte Wahrheit ist. Anfechten kann man das nicht.

Zwei politische Großereignisse prägten das Jahr 2016: die Abstimmung über den Verbleib Großbritanniens in der Europäische Union, kurz „Brexit“, und die Wahl des amerikanischen Präsidenten. Während die Berichterstattung über beide Urnengänge in traditionellen Medien gewaltige Ausmaße annahm, waren es doch die sogenannten neuen Medien, die für die wirklichen Schlagzeilen sorgten. Nach dem überraschenden Sieg Donald Trumps brach eine heiße Diskussion aus. Allen voran fragte die „New York Times“, deren Redaktion nie einen Hehl aus ihrer Unterstützung für Hillary Clinton gemacht hatte, welche Rolle Facebook, Google und Twitter in diesem Volksentscheid tatsächlich gespielt hätten.

Laut Expertenblog „The Social Skinny“ werden bei Facebook pro Minute 510 Kommentare verfasst und 310 000 Fotos publiziert. Damit bleibt Facebook der Gigant unter den Sozialen Netzwerken. WhatsApp hat eine Milliarde User, Instagram die Hälfte und Twitter kommt auf 313 Millionen. Zum Vergleich: Der Nachrichtensender CNN erreicht weltweit theoretisch zweihundert Millionen Haushalte und die „New York Times“ als eine der wichtigsten amerikanischen und international verbreiteten Zeitungen hat unter der Woche eine tägliche Auflage von einer halben Million.

Soziale Medien haben aber nicht nur eine theoretische Reichweite, sondern können genau messen, wer sich mit welcher Nachricht wie lange beschäftigt. Und deren Nutzer können selbst entscheiden, welche Meldungen und Absender wichtig sind. Für Hillary Clinton interessieren sich knapp zehn Millionen, während der zukünftige US-Präsident fast sechzehn Millionen Anhänger auf Facebook hat. Beide können nicht mit Facebook-Gründer Mark Zuckerberg mithalten. 78,5 Millionen Menschen „folgen“ seinem Profil.

Aber heißt das auch, dass diese Massen über Soziale Netzwerke manipuliert werden? Laut des US-Meinungsforschungsinstituts „PEW Research Center“ beziehen bereits 62 Prozent der Amerikaner ihre Nachrichten über Soziale Netzwerke. Nach dem US-Wahlkampf vermuteten internationale Medien, dass immerhin 150 Millionen Amerikaner dazu „falsche“ Nachrichten über Facebook erhalten hätten. Den Netzdiensten warf man vor, mitverantwortlich für Trumps Sieg zu sein. Eine der verbreiteten Falschmeldungen suggerierte laut „New York Times“ etwa, Papst Franziskus hätte den republikanischen Kandidaten zur Wahl empfohlen.

Auch Suchmaschinenriese Google sieht sich dieser Kritik ausgesetzt. So hätte am Wahlabend die Suche nach den Begriffen „final election vote count 2016“ (Finale Wahlstimmenzählung 2016) einen Link an oberster Stelle ausgespielt, unter dem fälschlicherweise behauptet wurde, dass Trump nicht nur die Mehrheit bei den Wahlmännern, sondern auch bei den Einzelstimmen erhalten hätte.

Die Masse beurteilt, was relevant und wichtig ist

Google erklärte sich am darauffolgenden Tag. Hunderte von Algorithmen bestimmten, welcher Beitrag nach einer Suche zuerst gezeigt würde. Das Ergebnis beeinflusse man nicht manuell. Auch die Zahlen dieser IT-Firma beeindrucken. Sie existiert seit achtzehn Jahren, beschäftigt rund 57 000 Mitarbeiter weltweit und verdiente im Jahr 2015 knapp 75 Milliarden US-Dollar. In den Vereinigten Staaten werden zwei Drittel aller Online-Suchvorgänge über Google vorgenommen. Richtig populär ist die Suchmaschine aber in Europa, Afrika und Asien. Weltweit erzielt sie einen Marktanteil von mehr als neunzig Prozent. Ein echtes Suchmonopol: Was Google nicht finden lassen will, wird nicht gefunden.

Die Priorisierung ist ebenfalls von großer Bedeutung. „SEO“ wurde deshalb zu einem klingenden Wort, nicht nur in Marketingabteilungen, sondern für die Wirtschaft insgesamt: Search Engine Optimization (Suchmaschinenoptimierung). Dabei handelt es sich um die Technik und das Wissen, Webseiten, Online-Artikel und Bilder so zu gestalten, dass sie leicht von Google gefunden und möglichst positiv bewertet werden.

Der „Page Rank“ (Seitenrang) bestimmt, an welcher Stelle eine Seite oder ein Artikel nach einer Suche gelistet wird. Studien zeigen, dass die ersten drei von zumeist tausenden Vorschlägen mehr als die Hälfte aller Klicks erhalten. Das heißt, nur die Höchstgereihten werden wahrgenommen. Ein ähnliches Prinzip verfolgt auch Facebook. Die meisten Nutzer erhalten Hunderte von Nachrichten pro Tag. Das Soziale Netz verwendet ebenfalls Algorithmen, die das Verhalten der einzelnen Nutzer auswerten und mit dem Inhalt eines bestimmten „Posts“ vergleichen. Je höher die Übereinstimmung, desto aggressiver wird der Eintrag positioniert.

Facebook will möglichst interessante, auf den einzelnen Nutzer zugeschnittene Inhalte. Je mehr Menschen Facebook so lange wie möglich verwenden, also Artikel einstellen, sie kommentieren oder einfach nur lesen, desto mehr gezielte Werbung kann ausgespielt werden und desto höher sind die Einnahmen.

Ein sicheres Indiz für die hohe Priorität eines Posts ist die Anzahl, wie oft er geteilt wurde. Dahinter steckt eine einfache Regel. Je mehr Nutzer etwas gut finden, desto mehr werden sich dafür interessieren. Legt man das nun auf politische oder wirtschaftliche Berichterstattung um, wird eines schnell klar: Die Masse beurteilt, was relevant und was nicht relevant ist. Die eigenen Interessen bestimmen, was man zu sehen bekommt und was nicht. Horizonterweiterung wird zur Illusion.

Heikel wird diese Dynamik aber vor allem dann, wenn sogenannte Falschnachrichten die Sozialen Netze zu dominieren beginnen. Vielleicht verkündeten Facebook und Google deshalb umgehend, dass man in Zukunft nicht mehr nur Algorithmen entscheiden lassen möchte, sondern aktiv gegen Falschinformation vorgehen wird.

Was ist aber falsch und was richtig? Und wer trifft letztlich diese Entscheidung? Wer kontrolliert sie? Manche Faktenlagen sind klar: Ein Artikel, der etwa behauptet, dass in Deutschland weniger Menschen leben als in Österreich, würde kaum beworben werden können und wahrscheinlich auch als Post gelöscht.

Andere Inhalte sind weniger eindeutig: die Meinung zum Beispiel, dass ein Kind am besten von Vater und Mutter großgezogen wird. Viele würden dem zustimmen. Andere teilen diese Ansicht vielleicht nicht. Manche könnten sogar Diskriminierung gleichgeschlechtlicher Paare vermuten. Auf wessen Seite schlägt sich dann der „Wahrheitskontrolleur“ von Facebook, Google und Co? Und ist seine Meinung absolut? Oder kann man sie anfechten?

Viele Wahlbeobachter machten Facebook, vor allem aber den Nachrichtendienst Twitter für Donald Trumps Wahlsieg verantwortlich. Täglich „tweetet“ der designierte Präsident seinen mehr als sechzehn Millionen Freunden. Er macht dabei Tippfehler und tätigt immer wieder Aussagen, die er dann revidiert. Das mache ihn authentisch, so Meinungsforscher. Es hagelt aber auch Spott und Kritik.

Trump erklärte deshalb sein „Social Media“-Verhalten auf – erraten – Twitter: Am 5. Dezember 2016 schrieb er von seinem Konto @realDonaldTrump: „Würde die Presse über mich richtig und ehrenhaft berichten, müsste ich viel weniger tweeten.“ 105 000 Menschen fanden diesen Beitrag toll, 30 000 teilten ihn mit ihren Freunden.

Einige Tage zuvor hatte Trump ebenfalls über Twitter Nigel Farage als britischen Botschafter in den Vereinigten Staaten vorgeschlagen. Englische Medien wie etwa „The Guardian“ sprangen sofort auf und widmeten in ihrer Berichterstattung der Meldung viel Platz. Downing Street teilte umgehend mit, dass der Posten besetzt sei. Das ist bezeichnend für eine neue Art von Politik, in der Soziale Netze eine zentrale Rolle einnehmen und Kurznachrichten politische Akteure oder sogar Regierungen unter Zugzwang bringen. Umso bedeutender wird die Frage, wer die Kontrolle über diese Netze, ihre Inhalte und ihre Priorisierung hat. Aktuell sind es vor allem die Konzerne selbst.

Das Stichwort lautet Selbstregulierung. Ein besonders brisantes und wiederkehrendes Thema sind für Facebook, Twitter und Co sogenannte „Hass-Postings“. Die Sozialen Netze präsentieren sich gerne als demokratisch, politisch korrekt und moralisch „gut“. Da stört es natürlich, wenn fundamentalistische, rassistische oder sexistische Posts das Netz nutzen, um Stimmung zu machen. Noch gibt es wenige technologische Lösungen, um dem Einhalt zu gebieten. Nutzer sind aufgerufen, störende Beiträge zu melden. Diese werden dann in der Regel gelöscht und der Absender manchmal sogar generell gesperrt.

Was eine Hassrede ist, ist nicht eindeutig definiert

So geschehen mit einem Repräsentanten der neuen Rechten, gemeinhin Alt-Right genannt. „Alt“ steht für Alternativ. Auf seinem Twitter-Konto machte er Stimmung gegen „Schwarze, Lateinamerikaner, Asiaten und Juden“. Dafür wurde Richard Spencer gesperrt. Auch viele andere Gleichgesinnte ereilte dasselbe Schicksal.

Der politische Konsens ist groß. Die Europäische Union versucht ebenfalls, Hass und Verachtung im Internet einzudämmen. Am 31. Mai 2016 sagte EU-Kommissarin Vera Jourova gemeinsam mit Facebook, Twitter, YouTube (gehört zu Google) und Microsoft sogenannter Hassrede (hate speech) auf Sozialen Netzen den Kampf an. Man richte sich vor allem gegen Inhalte, die zu Terrorismus und Gewalt aufriefen. Beim sogenannten „Code of Conduct On Countering Illegal Hate Speech Online“ handelt es sich um eine Vereinbarung zwischen privaten IT-Konzernen und der Europäischen Kommission, dem mächtigsten, jedoch nicht direkt gewählten EU-Organ, welche die Online-Nutzung von rund fünfhundert Millionen Menschen massiv beeinflussen könnte. Dazu muss man wissen: Hetze ist bereits ein fixer Bestandteil so gut wie aller nationalen Gesetzgebungen in Europa. Warum dann eine zusätzliche Regelung, die ohne Parlamentsbeschluss und öffentliche Diskussionsmöglichkeit getroffen wurde?

Während die Absicht, Hetze und Hass aus dem Internet zu verbannen, sicherlich löblich ist, werden Warnrufe vor einem allzu leichtfertigen Umgang mit Online-Zensur immer lauter. Es gibt nämlich keine einheitliche, klare Definition von Hassrede. Zu diesem Schluss kommt der englische Jurist Paul Coleman in seinem Buch „Censored“. Darin beschreibt er mehr als fünfzig europäische Rechtsfälle, die sich mit Meinungsfreiheit und Hassrede beschäftigen.

Einer davon dreht sich um Filmstar Brigitte Bardot, die 2008 ihren Brief an den damaligen Innenminister Nicolas Sarkozy auf ihrer Webseite publizierte. Darin unterstellte sie dem Islam, dass er ihr „Land zerstöre“, weil er seine Sitten der französischen Bevölkerung oktroyiere. Als öffentlich auftretende Tierschützerin nahm sie vor allem Anstoß an der rituellen Schächtung von Schafen während des islamischen Festes Eid-al-Kabir. Sie wurde wegen Hassrede zu einer Strafe von 15 000 Euro verurteilt.

Die frühere französische Ministerin Christine Boutin wurde ebenfalls wegen Hassrede vom Berufungsbericht in Paris verurteilt. 2014 hatte die Katholikin in einem längeren Interview ihre Ansichten zum Thema Homosexualität und gleichgeschlechtlicher Ehe offen ausgesprochen. Und erst kürzlich verbot Frankreich die Ausstrahlung eines Werbespots, der glückliche Kinder mit Down Syndrom zeigt. Zwar handelte es sich nicht um Hassrede, aber Mütter, die solche Kinder abgetrieben haben, könnten dadurch Schuldgefühle entwickeln.

Der Trick, die Beweislast zu verschieben

Diese Beispiele zeigen, dass richtig und falsch, provokant und angemessen zumeist im Auge des Betrachters liegen. Viele europäische Gesetzgebungen versuchen dieses Dilemma durch einen juristischen Kniff zu lösen. Sie verschieben die Beweislast vom Klagenden zum Beklagten. So geschehen jüngst in Malta, das mit Januar die EU-Präsidentschaft übernimmt. Dort will man ein heiß debattiertes neues Gleichstellungsgesetz so rasch wie möglich verabschieden. Es soll vor allem Homosexuelle vor Diskriminierung schützen. Deshalb wird bereits die Absicht, jemanden diskriminieren zu wollen, für illegal erklärt. Sobald sich jemand in seiner Würde verletzt „fühlt“, dürfen er oder sie klagen.

Der Beschuldigte müsste dann beweisen, dass dem nicht so ist. Ein recht aussichtsloses Unterfangen. Wie soll man objektiv entscheiden können, wenn es um persönliche Gefühle geht. Leider sind solche Gesetze nicht nur in Malta zu finden. Es ist ein Beispiel für viele aktuell diskutierte oder bereits verabschiedete Gesetze in den meisten Ländern der Europäischen Union.

Das Abkommen zwischen den IT-Konzernen und der Europäischen Kommission verschärft die Lage. Google, Facebook und Co sind angehalten, beleidigende Beiträge sofort zu löschen. Die ausufernde Anti-Diskriminierungsgesetzgebung in Europa trägt zu einer Verschiebung des Rechtsempfindens bei. Und das ist nicht nur für politische Außenseiter fatal. Die vorhin genannten Beispiele zeigen, wie rasch man bei Lebensschutz- und Familienthemen mit der Diskriminierungskeule konfrontiert ist, vor allem wenn man auf Basis des christlichen Menschenbildes denkt und argumentiert.

Alles, was nicht einem gewissen Mainstream entspricht, könnte bald der digitalen Zensur zum Opfer fallen. Unliebsame Überzeugungen, egal ob christlich, muslimisch oder anderweitig religiös, müssten dann gar nicht mehr vor Gericht bekämpft, sondern einfach von Facebook und Co verbannt werden, ganz so, als hätte es sie nie gegeben.

Der Traum einer wahrhaft säkularisierten Gesellschaft? Er könnte sich rasch als Albtraum entpuppen. Demokratie lebt von Debatte. Ohne sie gibt es keine demokratische Meinungsbildung. Und das Ergebnis eines solchen Prozesses ist nicht immer leicht zu akzeptieren. Das gilt selbst für Demokraten, wie uns die zahlreichen Anti-Trump-Demonstrationen nach den US-Wahlen vor Augen führten.

Der Autor ist Kommunikations-Direktor von ADF International für Europa.

Themen & Autoren

Kirche