Die letzten Monate haben gezeigt, dass unsere Demokratien durch eine mediengetriebene Polarisierung in ernsthafte Vertrauenskrisen geraten können. Wenn wir Meinungsfreiheit und Grundrechte weiter schützen wollen, dann liegt ein Haufen Arbeit vor uns: Wir müssen auf breiter Basis klären, was "schädliche Inhalte" sind und ob und wie wir sie regulieren sollten. Wir müssen klären, wo genau Meinungsfreiheit Grenzen hat. Und wir müssen den Mut aufbringen, unsere Diskurs- und Medienräume sinnvoll zu gestalten. Peder Iblher bringt dazu sieben Beispiele und Vorschläge.
Dieser Sinnspruch von Thomas Jefferson (1743-1826) hat es in sich. "Jawoll", denkt man unwillkürlich, "man sollte alles sagen dürfen!" Auf Dauer wird sich die Wahrheit schon durchsetzen – und gute Ideen, deren Zeit gekommen ist, um so schneller. Wer sollte etwas dagegen haben, außer Tyrannen, verblendete Ideologen oder Leute, die etwas zu verbergen haben!?
Und doch: Ich habe noch niemanden getroffen, der eine so radikal offene Position bei längerem Nachdenken beibehält.
Dient der Ruf nach Meinungsfreiheit also nur der Durchsetzung des eigenen Weltbildes? Ist uns die "Freiheit der Andersdenkenden" wirklich so wichtig wie wir gern sagen?
Beispiel 1: Sturm aufs Kapitol
Die Videoplattform TikTok hat die Accounts von Menschen, die aus der Norm fallen, gedrosselt. Weil sie stark übergewichtig, behindert oder homosexuell sind, wurde ihre Reichweite eingeschränkt. Angeblich geschah dies, um sie vor Mobbing zu schützen, indem man sie weniger sichtbar machte. Doch wenn man sich anschaut, wie in TikToks Heimatland China mit Minderheiten umgegangen wird, könnte man auch eine Diskriminierung vermuten. Als die Maßnahmen in Deutschland publik wurden, hagelte es Kritik. Daraufhin versprach die Plattform Besserung und einen bewussteren Umgang mit dem Thema.
Zur Klärung einiger Begriffe
Objektivität, Ausgewogenheit oder Konsens?
Um Inhalte zu bewerten, bedarf es oft eines objektiven Urteils, zumindest aber eines Konsenses über "Wahrheit" – der aber schwer herzustellen ist. Wir leben in Zeiten eines rasanten Austausches von visuell überzeugenden und uns oft überwältigenden Nachrichten. Eine Hysterie, basierend auf einer blanken Lüge, ist binnen Minuten entfacht. Ein Rufmord ist schnell in die Welt gesetzt, aber unmöglich beizeiten zu entkräften. So benötigen wir einen Kompass, der uns schnell und relativ sicher sagt, was gefördert oder toleriert und was niedergehalten werden soll. Zeit ist dabei ein kritischer Faktor.
Wo also verlaufen die Grenzen zwischen gewöhnlichem Beitrag und schädlichem Inhalt, zwischen legitimer Kritik und gefährlicher Propaganda? Können wir uns auf überprüfbare Kriterien einigen, die verbindlich gelten? Was ist Satire, was ist Ironie und was ist eine Beleidigung? Welche wissenschaftliche Erkenntnis darf als hinreichend gesichert gelten und welche als irrelevant oder widerlegt? Und ändern sich diese Maßstäbe nicht andauernd?
Tatsächlich ist heute vieles normal, was noch vor wenigen Jahren als undenkbar galt – und umgekehrt. Kopftücher waren früher in Europa sehr verbreitet, heute sind sie heiß umstritten. Vielleicht empfinden wir irgendwann fotografisch bearbeitete Models als obszön, vulgäre Ausdrücke aber als völlig normal. Wer früher noch "Frauen an den Herd" wünschte, echauffiert sich heute vielleicht über ihre Unterdrückung in arabischen Ländern. Vielleicht hält man Werbung für Zucker irgendwann für gefährlicher als Terrorpropaganda – was von den Opferzahlen her betrachtet durchaus vertretbar wäre… – Wir wissen es nicht, die Dinge sind im Fluss.
Deshalb sollte es bei der Meinungsfreiheit gerade nicht um Konsens gehen oder um Mehrheiten. Vielmehr braucht es die Einsicht der Mehrheit, dass ein Dissens notwendig ist (Demokratie, Pluralismus, Minderheitenschutz, Rechtsstaat). Aber es braucht einen Konsens darüber, welchen Arten von Inhalten (siehe oben) der Status einer geschützten Meinung nicht zugestanden werden darf. Weil sie zu zerstörerisch oder gefährlich sind. Dieser Konsens kann nur "bis auf weiteres" gelten, denn dass er oft zeitgebunden ist, zeigt die Geschichte.
Frei denken – kann man das überhaupt?
Das individuelle und kritische Denken hat in Europa eine lange Tradition. "Sapere aude – Habe Muth dich deines eigenen Verstandes zu bedienen!" lautete der antike Wahlspruch, den Immanuel Kant für die Aufklärung ausgab. Stärker als die Buddhisten, Konfuzianer oder Muslime in Asien sahen aufgeklärte Europäer sich als losgelöste Individuen. Sich aus eigener Kraft aus jeglicher Knechtschaft zu befreien wurde zum Credo der sozialen Revolutionen seit 1789.
Doch auch das Bewusstsein in der Aufklärung ist bedingt: "Das Sein bestimmt das Bewusstsein", lehrte Marx. Und Freud legte nach: Unsere frühkindliche Sozialisation bestimmt unser Unterbewusstsein. Auch Individualisten sind also nichts, was sie nicht irgendwie geworden wären. Neue Konzepte der politischen Umerziehung ließen nicht lange auf sich warten, von Goebbels' Volksempfänger bis zu Maos Kulturrevolution. Dem stellte sich ein pluralistischer Humanismus entgegen, der eine robuste, wehrhafte Demokratie forderte.
Bis heute sind die sich wandelnden Einflüsse massiv: Ob Elternhaus, Schule, Werbung, Unterhaltung, Nachrichten oder Social Media – von überall strömen Ideen und Ideologien auf uns ein. Unsere Kultur und Identität verändern sich schneller denn je. Subkulturen und Peer-Groups stehen zu Wahl, teils mit verlockenden Angeboten. Wer da behauptet, er wolle sich selbst formen und erfinden, unterliegt einer Illusion.
Vielleicht ist aber etwas anderes gemeint: Das Denken möge nicht von fremden Interessen gelenkt werden. Es möge der maximal erreichbaren Erkenntnis dienen und nicht dem Einfluss anderer. Selbstbestimmung kann erst dort entstehen, wo ein Selbstbewusstsein vorhanden ist und seine eigenen Interessen entdeckt und formuliert hat.
Seit es das Internet gibt, hat sich unser Denken verändert. Es hat sich vernetzt und beschleunigt. Neue Ideen jagen um den Globus und begründen Cluster von Anhängern. Manchmal entstehen dabei fast hermetisch abgeschlossene Blasen, ganze Kulte oder Parallelgesellschaften. Menschen können einen Wahn ja nicht mehr wahrnehmen, wenn er sie erst einmal so selbstverständlich umgibt wie die Luft zum Atmen. Das ist quasi die Geschäftsgrundlage von Sekten und Verschwörungsmythen.
Wenn wir nun mit Menschen aus solch exotischen Gedankenwelten kollidieren, halten wir sie für Außerirdische – unverständliche Volldeppen, die scheinbar nicht auf diesem Planeten leben. Sie scheinen "gesteuert", sie denken gar nicht selber, sondern folgen einer mächtigen Ideologie. Wie wir selbst vermutlich auch – nur dass unsere Ideenwelt aus unserer Sicht weniger extrem ist, weniger abgeschlossen und unserer gefühlten Selbstbestimmung mehr Raum gibt.
Beispiel 3: #allesdichtmachen dicht gemacht?
In der Corona-Pandemie haben Schauspieler*innen eine Reihe von sarkastisch gemeinten Statemets veröffentlicht, in denen sie sich über die Maßnahmen der Bundesregierung mokierten. Unter dem Hashtag "#allesdichtmachen" sorgten die Videos für Kontroversen. Der entsprechende Kanal war auf YouTube schnell sehr frequentiert und sollte natürlich auch auffindbar sein. Nach zwei Tagen dann große Aufregung: "YouTube löscht #allesdichtmachen! Unsere Meinungsfreiheit wird beschnitten!" – Was war passiert?
Nichts. Der Kanal war weiterhin online. Er war aber in der Schlagwortsuche von anderen Medien verdrängt worden, die teils kritisch über die Aktion berichteten und dem Algorithmus vermutlich als rennomierter und relevanter erschienen. Die Fans der Aktion fühlten sich düpiert und schimpften und klagten auf breiter Front. Nach etwa einer Woche hatte sich das Suchergebnis korrigiert und #allesdichtmachen war wieder weit vorne in den Suchergebnissen zu finden. Oder waren es doch YouTube-Entscheider, die hier Hand angelegt hatten, um die Meinung im Sinne der Bundesregierung zu manipulieren? Denkbar, aber unwahrscheinlich, denn so brisant waren die Videos auch wieder nicht – und illegal natürlich auf keinen Fall. Nach meiner Einschätzung sind die Anwälte der Meinungsfreiheit hier einer Kontrollillusion erlegen, während der Algorithmus nur unbeeindruckt seine Arbeit gemacht hat.
Kann man "Framing" vermeiden?
Über Framing wird viel geschimpft: Ein Sachverhalt wird durch geschickte Wortwahl bewusst in ein bestimmtes Licht gerückt. Spricht man von "Kernkraft" oder "Atomkraft"? Von "Rechtsextremisten" oder von "Nationalkonservativen", von "Kommunisten" oder von "Linken"? Unbewusst tun wir das alle – jede Wortwahl hat schließlich irgendeine Vorannahme oder Konnotation.
Allzu rohe Fakten, Tatsachen und Daten ergeben für unsere Gehirne keinen Sinn, sondern führen allenfalls zu Reizüberflutung. Erst wenn sie gefiltert und in Zusammenhänge gebracht werden, ergeben sich Muster. Und diese modellieren dann ein Gesamtbild. Dass dabei Wertungen, Prämissen und gezielte Fragestellungen im Spiel sind, ist selbstverständlich. Eine neutrale Berichterstattung kann es daher nicht geben – allenfalls eine ausgewogene Position. Die Fragen können also nur lauten: Wer steuert unsere Information, die Story, das Framing? Wem vertrauen wir und wie oft werden wir ein wenig misstrauisch? Und wie ehrlich sind wir zu uns selbst, dass unser Wissen nur relativ und erworben ist?
"Wo gemischt und gemahlen wird, da wird auch betrogen" lautet eine alte Bauernweisheit. Auf Medien bezogen könnte man sagen: "Wo redigiert und kuratiert wird, da wird Meinung gemacht". Framing findet also immer statt, genau wie Bewertung, Gewichtung, Auswahl. Immer sind dabei Interessen im Spiel, sei es eine Ideologie, wirtschaftliche Vorteile oder einfach eine interessante Story zu liefern.
Doch wie schützen wir uns vor Manipulation und massivem Betrug?
Medienkompetenz ist also ein Teil der Antwort. Bücher wie "Tausend Zeilen Lüge" oder "Fake Facts", das gelegentliche Lesen von Faktenchecks oder Berichte über Foren-Netzwerke und Trollfabriken sollten genug Hintergrundwissen vermitteln, um sich einigermaßen gegen Manipulation zu schützen. Doch – reicht das aus?
Was ist öffentlich – was privat?
Das Internet hat einen fließenden Übergang zwischen privater und öffentlicher Kommunikation geschaffen. Eine klare Unterscheidung ist daher heute schwierig, aber eigentlich wichtig. Denn das privat gesprochene Wort, das unter Freunden versendete Bild oder Video, ist zu schützen. Die öffentlichen Medien dagegen unterliegen einer Kontrolle, weil schädliche Inhalte dort auf ein Massenpublikum treffen.
Dass ein verschlüsseltes Smartphone ebenso unbeobachtet bleiben sollte wie ein am Strand gesprochenes Wort, hat einen guten Grund. Denn alle Versuche, diese Privatsphäre systematisch aufzubrechen, führen über kurz oder lang zur Bedrohung der Meinungsfreiheit. Geht es heute vielleicht darum, Kinderpornografie zu bekämpfen (wie die EU es gerade diskutiert), so sind es morgen terroristische Inhalte, die gefunden werden müssen. Von kurdischen, katalanischen oder demnächst vielleicht schottischen Separatisten zum Beispiel. Gar nicht zu reden von Hongkonger Demokratieaktivisten, griechischen Investigativjournalistinnen, saudischen Atheisten oder deutschen Whistleblowerinnen. In einer Zeit, in der man ohne Smartphone schon fast auffällt, darf diese Technik sich nicht gegen uns wenden (Asimov).
(Wohlgemerkt: Wir sprechen hier von anlassloser Massenüberwachung und Schwächung von Systemen. Dass die Polizei frustriert ist, wenn manche Überwachungspotenziale nicht genutzt werden, ist verständlich. Gezielte Maßnahmen, etwa das Eindringen in verdächtige Gruppen, sind ein ganz anderes Thema. Sie können durch Gerichte legitimiert werden. Und nebenbei ist dieses Vorgehen auch erfolgreicher.)
Nun kommunizieren manche Leute in verschlüsselten Chatgruppen mit bis zu 200.000 treuen Followern. Da kann man schon von einem Medium sprechen. Es macht einen Unterschied, ob 50 Leute ein Terrorpropaganda-Video sehen oder zigtausende. Ersteres ist schlimm (und kann auch virale Effekte haben), ist aber unter Wahrung der Vertraulichkeit nicht zu unterbinden – siehe oben –, es sei denn durch verdeckte Ermittler oder Whistleblower. Das andere ist eine massenhafte, mediale Verbreitung von Inhalten, die einer Regulierung offen stehen sollte.
Eine Mischform aus privater und öffentlicher Kommunikation sind Soziale Netzwerke. Hier hat ein Plattformanbieter die Moderatorenrolle. Ab einer gewissen Größe (Besucherzahl) ist er laut Netzwerkdurchsetzungsgesetz (NetzDG) verpflichtet einzugreifen und illegale Inhalte zu sperren. Er darf eine Hausordnung haben, aber diese muss die Meinungsfreiheit achten und darf nicht diskriminierend sein. Die Praxis sieht anders aus: In der Regel werden die Nutzungsbedingungen eng ausgelegt und es kommt häufig zu Overblocking. Schon eine sichtbare (weibliche!) Brustwarze kann bei Instagram die Alarmglocken klingeln lassen. Aus meiner Sicht dürfte dies aber allenfalls für Accounts gelten, die die Schwelle der privaten Kommunikation überschritten haben, aber diese Unterscheidung wird nicht getroffen.
Beispiel 4: Ein Kuss macht Furore
Als Amed S. eine Reihe von Fotomontagen auf Facebook und Instagram veröffentlichte, ahnte er natürlich, dass die nicht jedem gefallen würden: Zu sehen war ein Kuss mit Mohamed H. In einem Motiv waren die beiden auf den Hintergrund der Kaaba in Mekka montiert und diese mit der Flagge der Gay-Pride-Bewegung geschmückt. Fundamentalistische Muslime waren sofort auf dem Plan und überzogen die Bilder mit Hass und Wut, bis hin zu Morddrohungen. Besonders in Pakistan wurden die Bilder als schädlicher Inhalt gemeldet. Doch statt zu erkennen, dass es sich hier um eine ganz gezielte Einschüchterung handelte, schlossen Facebook und Instagram Ameds Accounts – und verhielten sich damit ganz im Sinne der schwulenfeindlichen Pöbler.
Facebook hat so ein paradoxes Kalkül erfüllt: Je beleidigter eine Gruppe sich aufführt, desto stärker sieht man die "öffentliche Ordnung" gestört – aber nicht durch die vermeintlich Beleidigten, sondern durch den Beitrag. Das wollte S. nicht auf sich sitzen lassen. Unterstützt von der Giordano-Bruno-Stiftung, dem Institut für Weltanschauungsrecht und der Initiative für Meinungsfreiheit ging er den beschwerlichen Klageweg. Und hatte Erfolg: "Ich bin überglücklich über dieses wichtige Zeichen für Meinungsfreiheit im Netz", kommentierte er seinen Sieg. "Ein religiöser Mob darf sich mit seinen menschenfeindlichen Vorstellungen nicht bei Facebook durchsetzen! Ein Kuss ist kein Verbrechen!"
Ohne Regeln geht's nicht – deal with it!
So schön sie vielleicht waren, sie sind längst vorbei – die Zeiten der fröhlichen Informations-Anarchie im Internet. Nicht mehr abseitige Spinner, sondern ausgebuffte Agenturen und professionelle Demagogen ziehen heute alle Register und beherrschen die Klaviatur der Desinformation meisterhaft. Dabei kann man an sich selbst beobachten: Wer sich innerlich entschieden hat, bestimmten Erzählungen zu folgen – etwa in den ersten Wochen der Corona-Pandemie oder vor den US-Wahlen – der bleibt leicht in einer Blase selbstgefälliger Bestätigung hängen. Das kann zu einer scharfen Polarisierung führen, die eine Demokratie aber aushalten muss. Denn vieles ist ja Auslegungssache oder lässt sich als Wertediskussion verstehen, die natürlich wichtig ist. Sogar blanke Desinformation fordert zur Gegenrede heraus, zur Aufklärung und ist bis zu einem gewissen Punkt zu tolerieren, denn sonst wären wir zu schnell am Zensieren.
Der kritische Punkt liegt bei einer ernsten Gefährung von wesentlichen Schutzgütern (siehe oben) oder der pluralen Gesellschaft insgesamt. Mit der wünschenswerten Medienkompetenz und Selbstverantwortung ist es dann nicht mehr getan. Genau wie andere Bereiche, etwa Straßenverkehr, Umweltschutz, Stadtplanung, Bildung oder die Lebensmittelherstellung, kommen auch unsere Informationsräume ohne Regulierung nicht aus, wenn es um diese Werte geht. Denn der oder die Einzelne ist manchmal eben zu egoistisch, zu böswillig oder schlicht zu blöd um ihm/ihr per Massenmedium eine dermaßen zerstörerische Macht einzuräumen. Auch wenn es sich geradezu autoritär anhört: Wenn wir uns darauf einigen, dass viele der eingangs aufgelisteten Inhalte illegal und nicht akzeptabel sind, dann müssen wir uns dazu bekennen, sie auch zu unterdrücken. Genau das ist mit einer "wehrhaften Demokratie" gemeint.
Eine Regulierung unserer Medien ist demnach legitim und muss ebenso klare Grenzen haben. Doch wie soll das in der Praxis aussehen und funktionieren?
Eine Moderation findet statt
"Eine Zensur findet nicht statt" heißt es vollmundig im Artikel 5 des deutschen Grundgesetzes. Doch gemeint ist damit allein das Verbot einer staatlichen Vorzensur:
Was wir nun ganz sicher nicht tun sollten, wäre irgendjemanden Beliebiges zu bevollmächtigen, unsere Medien zu zensieren. Genau das geschieht aber: Der Staat verlangt von den sozialen Netzwerkplattformen, verbotene Inhalte zu löschen. Gegebenenfalls schon beim Upload. Na super: Ein paar random Glücksritter des Internetzeitalters, die mit Raffinesse und viel Chuzpe zu Milliardären wurden, entscheiden über unsere Meinungsfreiheit! So hatten wir uns das nicht vorgestellt.
Eine "Moderation" findet also sehr wohl statt und sie unterliegt keiner wirklichen rechtlichen Kontrolle. Im Glauben, doch stets für die gute Sache einzutreten, setzen die Plattformen ihre Hausordnungen nach Gutdünken um. Eine Löschung ist schnell erledigt, dagegen rechtlich vorzugehen ist oft langwierig. Schon ein Tag für den Einspruch kann zu lange sein, denken wir an Wahlkämpfe oder aufflammende Konflikte. Und: Eine Löschung wird ja noch bemerkt, aber eine Gewichtung, die Beschneidung von Reichweite, ein Justieren des Algorithmus kann ebenso brinsante Auswirkungen haben.
Kriterien und Umsetzung sind derzeit viel zu plump
Wir müssen also einen gesellschaftlichen Konsens darüber finden, was nicht öffentlich gesagt, gesendet, verbreitet werden darf. Und was man auf einer großen, öffentlichen Plattform sagen dürfen muss. So weit, so schwierig die Theorie. Doch noch komplizierter ist die Praxis: Wo und wie soll eine Regulierung (Steuerung, Säuberung, Bewertung, Zensur) eingreifen und durch wen?
Wir sehen jeden Tag, dass es nicht besonders gut funktioniert. Beziehungsweise: Sehr vieles funktioniert gut – aber der Unmut, wenn etwas falsch beurteilt wird, ist zurecht groß. Eine KI unsere Debattenräume ausmisten zu lassen – so einfach ist das nicht. Auch die Content-Moderator*innen sind oft überfordert. Der Aufwand, es gut zu machen, wäre hoch und niemand will für die Kosten aufkommen. Dabei geht es um nichts Geringeres als unsere Meinungsfreiheit.
Beispiel 5: Facebook-Hetze in Myanmar und in Indien
In manchen Ländern ist Facebook quasi die einzige Internetseite, die von der breiten Bevölkerung genutzt wird. So hatte das Militär in Myanmar mit einer massiven Verleumdungskampagne auf Facebook durchschlagenden Erfolg, die es seit 2013 gegen die muslimische Minderheit der Rohingya gefahren hat. Die Volksgruppe ist dort nicht anerkannt und wurde als "staatenlos" systematisch ausgegrenzt. Ressentiments, illegale Inhaftierungen, Folter, Vergewaltigungen und Morde sind an der Tagesordnung. Die Vertreibung erreichte 2017 ihren Höhepunkt, seitdem leben circa 1,5 Millionen Rohingya oft in Notunterkünften im Ausland. Die Ausgrenzung wurde flankiert von massiven Diffamierungen, Hassrede und offenen Genozidforderungen auf Facebook. Die Plattform hat in großem Stil darin versagt, die volksverhetzenden Inhalte vom Netz zu nehmen, weil sie über Jahre keine entsprechende Infrastruktur in burmesischer Sprache aufgebaut hat.
Auch in Indien ist es zu Pogromen gegen Minderheiten gekommen, nachdem Gerüchte die Runde machten, dass diese Kinder mit Motorrädern entführen würden. Eine entsprechende Szene wurde per WhatsApp auf Video verbreitet, es handelte sich aber tatsächlich um eine gespielte Szene von einem Filmset. Wochenlang gelang es der Polizei nicht, für Aufklärung zu sorgen – die Nachrichten wurden ausgeschmückt und weiter geteilt. Auf diese Weise aufgehetzte Mobs haben schließlich eine ganze Reihe völlig unschuldiger Menschen gelyncht. Ein Exzess an Gewalt, ausgelöst allein durch Fake News.
Wie kann es also gehen?
Um die schwierige Situation zu beheben, in der unsere Meinungsfreiheit im Reifungsprozess von Social Media steckt, schlage ich die folgenden Konzepte vor:
1. Eine Trennung von privater und medialer Kommunikation
Früher war klar: ein Anruf ist privat, ein Leserbrief öffentlich. Doch heute haben wir Zwischenformen wie Profile, Foren oder Chatgruppen, in denen quasi privat, potenziell aber mit großem Wirkradius kommuniziert wird. Wenn wir also sagen
a) privat muss geschützt bleiben und
b) medial muss moderiert werden,
dann kommen wir nicht darum herum, eine künstliche Grenze zu ziehen. Willkürlich schlage ich eine Reichweite von 50 Beteiligten vor:
a) Wer mit bis zu 50 Menschen kommuniziert, unterliegt der vollen Geheimhaltung von Verschlüsselung und ePrivacy, inklusive Metadaten. Dort kann man in einem geschützten Raum sagen und teilen, was man will. Wenn hier zu Mord und Totschlag aufgerufen wird, muss man schon auf einen Denunzianten hoffen. Oder auf gute Polizeiarbeit mit richterlichem Vorbehalt, denn auch Privaträume sind ja nicht rechtsfrei. Alles Weitere müssten wir als Kollateralschaden unserer Meinungsfreiheit akzeptieren. Denn wir wissen, es hätte ebenso gut im Darknet oder bei einem Treffen im Wald geteilt werden können, Überwachung kann das Böse nicht ausrotten.
b) Kanäle, die ein Publikum von mehr als 50 Personen erreichen, gelten als Medien und unterliegen grundsätzlich einer öffentlichen Einsichtnahme und Regulierung. Je nach Verbreitungsgrad und Gefährlichkeit der Inhalte müssen schädliche Inhalte (siehe oben) mehr oder weniger schnell vom Netz genommen werden. (Melde- und Reaktionszeiten, Verwarnungen und Filter werden weiter unten ausführlich behandelt.) Ein Messengerdienst müsste dann geschlossene Chatgruppen bei 50 Personen limitieren, Betreiber größerer Foren wären einer Moderation verpflichtet.
2. Das Melden durch Laien muss funktionieren
Die Meldewege in den großen Netzwerken sind derzeit unbeholfen und inkonsistent gestaltet. Notwendig wäre ein einheitlicher Prozess, in dem niedrigschwellig, schnell und präzise angegeben werden kann, warum ein Inhalt rechtswidrig sei und entfernt werden müsse. Oder, als Beschwerdemöglichkeit, warum der Beitrag keiner Sperrung unterliegen sollte. So kann schon nach ein bis zwei Meldungen ein Warnhinweis gegeben und von der Crowd ein Urteil eingeholt werden. Bald haben wir auf diese Weise mehrere Urteile – und vielleicht einen Meldekrieg. Wenn die Sache kontrovers ist, sollte eine qualifizierte Person sich das ansehen, und zwar innerhalb kurzer Zeit.
Einen großen Haken hat diese Schwarmintelligenz allerdings: Die schiere Menge an schädlichem Material ist ungefiltert für Laien kaum zumutbar. Heerscharen von Content-Moderator*innen ("Cleaner") setzen ihre psychische Gesundheit dafür ein, uns vor Enthauptungsvideos und Abbildungen von Kindesmissbrauch zu schützen. Diese Arbeit ist unzumutbar; innerhalb von Monaten sind diese Menschen fertig mit der Welt. Eine Hoffnung liegt auf KI, aber diese macht zur Zeit mehr Fehler als im Sinne der Meinungsfreiheit zulässig wäre. Nicht umsonst haben wir uns gegen Uploadfilter noch stets zur Wehr gesetzt. Lügen wir uns hier in die Tasche? Niedrigschwellige Einspruchsmöglichkeiten könnten, in Kombination mit einer besser geschulten KI, langfristig eine Lösung sein. Das Thema bleibt aber brisant. Schon allein die Frage nach der Speicherung von "Trainingsmaterial" ist ethisch schwer zu beantworten.
3. Anerkannte Accounts sorgen für Integrität
Es gibt Methoden, die Qualität von Accounts zu bewerten, ihr "Internet-Karma". Frisch eröffnet, wenige Follower – diesem Account sollte man keine maßgeblichen Urteile zutrauen. Viele Abmahnungen wegen schädlicher Inhalte, gegebenenfalls einem geschlossenen Ring angehörend – offensichtliche Troll-Accounts könnten angezählt werden. Mit Zeitstrafen, weniger Reichweite, weniger Vertrauen beim Melden und im Extremfall mit einer Sperrung. Haben Profile dagegen Hinweise gegeben, die sich bestätigt haben, erhalten sie einen Bonus in ihrem Internet-Karma und gelten irgendwann als qualifizierte User.
Wohlgemerkt: Das Kriterium darf weder die Interaktionsrate sein noch irgendein Wohlverhalten oder eine Mainstream-Meinung. Registriert wird allein das Verhalten in Bezug auf nachweislich schädliche Inhalte gemäß der erarbeiteten Kriterien (siehe oben). Wer sich über den politischen Gegner einfach nur mokiert oder den ganzen Tag lang vulgäres Zeug redet, macht sich vielleicht unbeliebt, hat aber ein Recht dies zu tun – und kann durchaus ein intaktes Urteilsvermögen haben.
Ein solches System von Account-Gewichtungen sollte einfach, transparent und einheitlich sein, das heißt quelloffen implementierbar und in jedem größeren Forum für dessen jeweilige Accounts gültig.
4. Gerichtlich Autorisierte müssen entscheiden
Schon im nächsten Schritt muss eine juristisch autorisierte Person entscheiden – nicht im Sinne einer Hausordnung, sondern im Sinne des Gesetzes. Zwischen dem sekundenschnellen Urteil der Crowd oder der qualifizierten User einerseits und einer Wochen dauernden juristischen Entscheidung andererseits müssten noch zwei weitere Ebenen eingezogen werden. Hierfür bräuchte es einen ganz neuen Typus von Entscheider*innen: Schöffen und Laienrichterinnen, die in einem Crashkurs eine Art Examen abgelegt haben. Nicht jemand, der in einer Amtsstube Akten wälzt, sondern Leute, die sich im Homeoffice zu den Stoßzeiten nebenbei ein paar Euro verdienen. Leute, die unseren Kuturkreis kennen und den Jargon der verschiedenen Subkulturen. Auch hier muss es natürlich Beschwerdemöglichkeiten geben. Aber je höher die Instanz, desto länger wird ein fundiertes Urteil dauern.
So ergäbe sich folgende Hierarchie in der Entscheidung über schädliche Inhalte:
Bisher:
Vorschlag:
Beispiel 6: Böhmermann und die Lex Soraya
Auf Majestäts- oder Präsidentenbeleidigung steht in manchen Ländern Gefängnisstrafe. In der Türkei wird dieses Delikt mit zunehmender Härte verfolgt. Der Satiriker Jan Böhmermann hatte 2016 den türkischen Präsidenten Erdoğan in einem Schmähgedicht gezielt verspottet, was zu diplomatischen Animositäten führte. Darf man das? Es wurde bald klar: In einem freien Land darf man das. Die Politik hat es nichts anzugehen, was die Presse in ihrem Land tut, solange keine hier anerkannten Rechtsgüter verletzt werden. Und bei einer öffentlichen Person ist es nun mal so, dass sie sich auch schneidende Kritik gefallen lassen muss – Frau Merkel kann selbst ein Lied davon singen. Zur finalen Klarstellung wurde der überkommene Paragraph 103 StGB schließlich abgeschafft.
Der Fall erinnerte an eine Affäre um die sogenannte "Lex Soraya" von 1958: Die deutsche Boulevard-Presse hatte sich damals über Trennungsgerüchte im persischen Herrscherhaus ausgelassen, damit die Wut des Schahs von Persien auf sich gezogen und eine diplomatische Krise ausgelöst. Es gab damals tatsächlich Kabinettspläne, ein Gesetz zu verabschieden, das solche Krisen per Zensur vermeidet. Doch schnell intervenierten der Deutsche Presserat und der Bundesrat – und die Vorlage wanderte in den Papierkorb.
5. Hilfsangebote bereitstellen
Auch die Phänomene in den Sozialen Medien folgen den Bedürfnissen, Ängsten und Reflexen von Menschen und diese sollte man ernst nehmen. Jede Maßnahme "gegen" einen User sollte daher von einem spezifischen (plattformübergreifenden) Angebot begleitet sein. Warum sind zu meinem Thema so viele Fakes unterwegs? Wie kann ich meine Wut in etwas Konstruktives umsetzen? Wohin kann ich mich wenden, wenn ich bei mir pädosexuelle Neigungen bemerke? Wie kann ich aus einem kriminellen Netzwerk aussteigen? Warum mache ich mich mit einem Inhalt strafbar? Das klingt "gut gemeint" und ist es auch. Wer dies für eine Bevormundung hält, muss ja nicht teilnehmen.
6. Legal – tolerierbar – illegal
Neben den Kategorien "legitime Meinungsäußerung" (kein Eingriff) und "illegaler Inhalt" (muss gelöscht werden) sollten wir uns eingestehen, dass es eine dritte Kategorie gibt: Inhalte, die für ein Massenpublikum nicht förderungswürdig, aber noch zu tolerieren sind. Die also aufrufbar sein müssen, aber nicht gepusht werden sollten. Dazu könnten zum Beispiel Bekennerschreiben von Terroristen gehören oder die Dokumentation grausamer Kriegsverbrechen. Keine verantwortungsbewusste Redaktion würde so etwas auf Seite eins bringen, aber in den Sozialen Medien gibt es bis dato kein solches Bewusstsein.
Hier verlassen wir also den rein rechtlich orientierten Bereich des Schwarz-Weiß und betreten den brisanten Graubereich der Gewichtung von Inhalten. Im derzeitigen Wildwuchs ergibt sich diese Gewichtung aus der Interessenlage – also aus den inhaltlichen oder Gewinninteressen der Plattformen oder aus den Kommunikationszielen derer, die diese geschickt zu nutzen wissen. Trauen wir uns zu, auch hier noch wertend einzugreifen? Wie schützen wir diesen Bereich vor Misstrauen, Dünkel und Partikularinteressen? Denn wie gesagt, wo gemischt und gemahlen wird…
7. Geschäftsmodelle überprüfen
Wenn wir die Alkohol- oder Zigarettenindustrie oder Sonnenstudios regulieren können, weil wir ihre Produkte für potenziell schädlich halten – warum sollten wir dann zuschauen, wie die Algorithmen der Sozialen Netzwerke Polarisierung und Hass schüren? Hier geht es um Geschäftsmodelle. Letztlich müssen sich die großen Plattformen in die Karten schauen lassen: Was pushen sie, was unterdrücken sie? Wo liegt Overblocking oder eine strukturelle Diskriminierung vor? Fördern sie Hass und Desinformation in einem Maß, das eine Gefährdung der Demokratie als Ganzes darstellt und eine Regulierung rechtfertigt?
Zur Zeit setzt sich durch, was der größte Aufreger ist, was am meisten Impact, Involement und Screentime bringt. Hier könnte mit Algorithmen graduell gegengesteuert werden, also auch jenseits von Löschungen. Sie könnten ebensogut fördern, was eine konstruktive Diskussion und Lösungen befördert, also de-radikalisiert. Dieser Eingriff in den Maschinenraum der großen Social-Media-Plattformen würde klare Kriterien verlangen und eine möglichst neutrale Aufsicht, die für Ausgewogenheit und Vielfalt sorgt. Vor einem politisch gefärbten "Gemeinsinn" müsste man sich dabei hüten, um wertvolles Vertrauen nicht zu verspielen.
Niemand sollte sein Geld damit verdienen, uns mit negativen Basalreflexen wie Angst, Hass und Verunsicherung möglichst lange im Bann zu halten. Aber womit sonst sollen sie sich finanzieren? Ob man große Plattformen als öffentlich-rechtlich definiert (denn staatsfern müssen sie bleiben!), sie mit Rundfunkgebühren statt Werbung finanziert, ob man Margen beschneidet, ob man die User zur Kasse bittet oder vielleicht nur Accounts mit sehr hohen Reichweiten – auch das wäre eine heiße Diskussion wert.
Beispiel 7: Islamismus – Appeasement oder Trotz?
Eine ganze Reihe grauenhafter Morde, Mordversuche und Todesdrohungen in Europa geht auf das Konto radikaler Islamisten. Im Fadenkreuz steht dabei nicht selten die Meinungsfreiheit selbst. Der Regisseur Theo van Gogh oder die Karikaturisten von Charlie Hebdo wurden ermordet. Auch auf den Karikaturisten Kurt Westergaard gab es Mordanschläge. Der Autor Salman Rushdie steht seit 1989 unter der ständig erneuerten Todesdrohung durch iranische Mullahs. Aufgeklärte Muslime wie Seyran Ateş oder der Islamkritiker Hamed Abdel-Samad müssen mitten in Deutschland unter ständiger Bedrohung leben. "Ich teile Ihre Meinung nicht, aber ich würde mein Leben dafür einsetzen, dass Sie sie äußern dürfen." – dieser Satz Voltaires hat in Bezug auf den Politischen Islam eine buchstäbliche Bedeutung.
Es sollte klar sein, dass man hier für die Meiungsfreiheit einstehen muss. "Religiöse Gefühle" sind in säkularen Staaten kein Rechtsgut. Und doch gibt es immer wieder Stimmen, die aus falsch verstandener Toleranz oder aus Angst, als muslimenfeindlich zu gelten, ein Appeasement einfordern: "Warum muss man immer so provozieren?" Nun, vielleicht darum: Die radikalen Islamisten werden sich mit kleinen Zugeständnissen nicht abfinden, sie im Gegenteil als Zeichen der Schwäche deuten und niemals zufrieden sein. Die säkulare Sicht, dass religiöse Anschauungen vielfältig und letztlich Privatsache sind, ist für eine freiheitliche Gesellschaft grundlegend.
Keine heile Welt – aber vielleicht kriegen wir die Kurve
Die genannten Vorschläge sind nicht unbedingt neu. Und sie bieten auch keine Gewähr für Sicherheit. Was wäre, wenn wir sie umsetzen könnten? Die Libertären würden darin Bevormundung sehen und die Marktliberalen eine Gängelung. Wahrscheinlich würde es sogar zu neuen Ungerechtigkeiten kommen. Manch harmloser Querulant würde weiter in der virtuellen Gummizelle einer begrenzten Reichweite landen. Und manchem Meldekartell würde es gelingen, unliebsame Kritiker mundtot zu machen.
Aber klare Grenzen und besser funktionierende Abläufe könnten entscheidend helfen, Social Media aus ihrer derzeitigen Pubertät entwachsen zu lassen. Die Gefahr, dass die Demokratie und der Zusammenhalt in pluralen Gesellschaften an Hass und gezielter Desinformation zerbrechen, wäre vermindert. Der nächsten Krise könnten wir mit mehr Vertrauen zueinander, mit besser funktionierenden Debatten und konstruktiveren Lösungen entgegentreten. Und gleichzeitig blieben die unbeobachteten, dissidentischen Freiräume erhalten – ohne die wir das mit der Demokratie und der Gedankenfreiheit auch gleich ganz sein lassen könnten.
Der Artikel erschien zuerst auf dem Blog des Autors.