image

Ingrid Brodnig — HASS IM NETZ

Ingrid Brodnig

HASS IM NETZ

Was wir gegen Hetze, Mobbing und Lügen tun können

image

INHALT

1.WIE BRENZLIG DIE SITUATION IST

2.FEHLENDE EMPATHIE

3.DIGITALE ABSCHOTTUNG

4.TYPOLOGIE PROBLEMATISCHER INTERNETNUTZER

Der Troll

Die Glaubenskrieger

5.HASS ALS INSTRUMENT

6.FALSCH VERSTANDENE MEINUNGSFREIHEIT

7.SILENCING – DIE ERZWUNGENE STILLE

Sich nicht mundtot machen lassen

8.LÜGENGESCHICHTEN UND FÄLSCHUNGEN

Warum Richtigstellungen oft nicht reichen

9.HERABWÜRDIGENDE RHETORIK UND WIE MAN DIESER ENTGEGNEN KANN

10.VON MOBBING BIS DROHUNGEN: WIE MAN SICH JURISTISCH WEHREN KANN

11.DIE MACHT VON HUMOR

12.WAS JEDER VON UNS TUN KANN

13.PLÄDOYER FÜR EIN INTERNET, IN DEM VERANTWORTUNG ÜBERNOMMEN WIRD

ANMERKUNGEN

GLOSSAR

image

1.WIE BRENZLIG DIE SITUATION IST

Es gab einen Schlüsselmoment, der mir die Ernsthaftigkeit der Lage klarmachte. Auf den ersten Blick war es ein unscheinbarer, harmloser Anlass, der mir dennoch monatelang in Erinnerung blieb, an den ich immer wieder denken musste, wenn ich im Internet wütende Kommentare oder auch Falschmeldungen las.

Im Juni 2015 führte ich ein Telefoninterview mit einer „besorgten Bürgerin“. Ich hatte damals für einen Artikel zum Thema „Lügenpresse“ recherchiert und Menschen auf Facebook angeschrieben. Mich interessierte, warum sie sich online so enttäuscht oder gar erzürnt über Journalisten äußerten. Das Problem: Die meisten wollten nicht mit mir reden, einige antworteten nicht, andere schrieben Sätze wie: „Uns interessieren ‚unabhängige Medien‘ wie Sie nicht – danke. Schreiben Sie einfach, was Sie wollen, Sie machen das sowieso.“ Auch wurde mir vorgeworfen, ich sei ohnehin „gekauft“.

Dann aber – endlich! – bekam ich eine Facebook-Nutzerin an den Apparat: eine zweifache Mutter aus Westösterreich. Nur unter der Voraussetzung und der Zusage, ihren Namen nicht zu veröffentlichen und private Details auszulassen, stimmte sie einem Interview zu.

Am Telefon hatte ich dann eine Frau, der die Angst regelrecht in der Stimme lag. „Ich steh in der Früh mit Zweifeln auf und leg mich abends mit Zweifeln nieder“, sagte sie. Sie war eine höfliche, gebildete, aber mir gegenüber durch und durch skeptische Interviewpartnerin. Sie wollte anonym bleiben, um später nicht als „Nazi“ beschimpft zu werden – ein Vorwurf, der online in ihren Augen zu leichtfertig ausgesprochen wird. Sie erzählte mir, sie überlege, bei der nächsten Wahl die österreichischen Rechtspopulisten von der FPÖ zu wählen.1 In den Jahren zuvor hatte sich ihr Blick auf die Welt drastisch verändert. Früher war ihr Politik nicht so wichtig gewesen. Jetzt las sie jeden Tag auf Facebook mit, konsumierte sowohl Tageszeitungen als auch alternative Blogs und Fanpages.

Darunter sehr viele islamkritische Accounts: Pegida, die Seite der „Patriotischen Europäer gegen die Islamisierung des Abendlandes“, das sogenannte „Info-Direkt-Magazin“, das von der rechtsextremen Szene nicht weit entfernt liegt, sowie eine Seite namens „der Infokrieger“. Diese Medien oder Gruppen vertreten unter anderem die Ansicht, wir befänden uns in einem Desinformationskrieg, bei dem die Mainstream-Medien die Bürger gezielt hinters Licht führen und nur sie selbst „die Wahrheit“ sagen würden.

Ich wusste natürlich, dass viele Menschen solche Seiten verfolgen und dies wohl eine Auswirkung auf ihr Weltbild haben würde. Allein Pegida hat mehr als 200.000 Fans auf Facebook, der gleichnamige österreichische Ableger davon noch einmal 18.000 Mitlesende. Erst mit diesem Telefonat wurde mir aber klar, wie erfolgreich diese „alternativen Medien“ faktisch sind, und wie geschickt diese obskuren Seiten mit klarem ideologischen Einschlag agieren.

Ich verstand allmählich, wie Angstmache im Internet funktioniert: Zum Beispiel mit ständiger Wiederholung. Ein Gerücht wird nicht glaubwürdiger, wenn man es hundertmal wiederkäut, hatte ich bis dahin naiv geglaubt. Irrtum! Durch die ständige Wiederholung von Halbwahrheiten und Schreckensmeldungen werden Feindbilder und komplett überzogene Ideen etabliert.

Ein paar der sichersten Länder der Welt werden beispielsweise als Horrorstaaten verunglimpft. Über Skandinavien berichten solche Seiten, dass „der hohe Norden vor allem die multikulturelle Hölle auf Erden“ und „Schweden – Europas Vergewaltigungsmetropole“ sei.2 3 Einmal abgesehen davon, dass Schweden keine Metropole, sondern ein Staat ist, ist dieses Vorgehen ziemlich perfide. Bewusst werden jene Länder attackiert, die international Symbole für Progressivität und Toleranz sind. Solche Schwarz-Weiß-Muster sind ein gängiger Trick der Rechtspopulisten. Sie suggerieren: Progressivität und Offenheit sind böse; Abgrenzung und reaktionäre Impulse gut.

Die „besorgte Bürgerin“ erzählte mir damals am Apparat, wie verunsichert sie ist. Sie fragte sich, was dran ist, an diesen ständigen Geschichten über Skandinavien. Ganz nach dem Motto: Wo Rauch ist, ist da nicht auch Feuer? Doch gerade im Internet ist es sehr leicht, mit Falschmeldungen, mit purer Aggression und kunstvoll interpretierten Halbwahrheiten Stimmung zu machen – digitale Rauchmaschinen quasi, die den Durchblick unter Umständen enorm erschweren.

Ich wünschte, ich könnte berichten, dieses Telefonat hat etwas Positives bewirkt oder zumindest ihren Umgang mit unseriösen Quellen verändert. Dem ist nicht so. Es gibt kein Allheilmittel, um andere Menschen umzustimmen. Aber es gibt kluge Ansätze und gute Ideen, wie man auf irreführende Rhetorik antworten kann – ich habe einige zusammengetragen.

Dieses Buch gliedert sich in drei Teile: Zuerst liefere ich wissenschaftliche Erklärungen, warum im Internet häufig so hart diskutiert wird, warum so schnell Schimpfworte fallen und wieso menschliche und technische Faktoren ein sachliches Diskutieren oft so schwer machen. Dieses Wissen ist wichtig, um Gegenstrategien oder Antworten zu entwickeln. Nur wer versteht, was online tatsächlich anders als offline ist, kann eine Kurskorrektur betreiben.

Zweitens liefere ich eine Typologie von besonders untergriffigen Usern – den „Trollen“, die sich am seelischen Leid anderer Menschen erfreuen, und den „Glaubenskriegern“, denen zum Verbreiten ihrer „Wahrheit“ kaum ein Mittel zu billig erscheint. Zwischen diesen Gruppen zu unterscheiden, ist sinnvoll, denn ihr Verhalten hat verschiedene Ursachen, sie verfolgen mit ihrer Aggression unterschiedliche Ziele – und dementsprechend braucht es auch unterschiedliche Reaktionen, um ihre Wut oder Schadenfreude einzudämmen. Beispielsweise kann man Trolle manchmal tatsächlich totschweigen, bei einem Glaubenskrieger wäre das aber genau die falsche Reaktion.

Drittens beschreibe ich die Methoden dieser Glaubenskrieger und Trolle und liefere Tipps dagegen: Woran lassen sich Falschmeldungen frühzeitig erkennen? Wie entlarve ich die Bösartigkeit eines rhetorischen Übergriffs? Welche konkreten Formen der Deeskalation gibt es? Wie kann man eine erhitzte Debatte wieder etwas entspannter machen – und funktioniert das überhaupt? Wann ist es an der Zeit und ratsam, zu juristischen Mitteln zu greifen? Und wie kann uns Humor helfen, mit Hass und Hetze im Netz umzugehen?

Wollen wir online allesamt etwas gelassener werden, müssen wir uns jedoch von einem Gedanken verabschieden: Dass wir jedes Argument gewinnen können und es nur eine Frage der richtigen Wortwahl ist, bis der andere einsieht, wie sehr er im Unrecht ist. Ich plädiere stattdessen für eine neue Form der Höflichkeit, für ein empathisches Diskutieren miteinander, bei dem man sich oft nicht einig wird, aber das Gegenüber immerhin respektiert. Dies kann nur gelingen, wenn auch gewisse Mindeststandards im Umgang miteinander eingehalten werden. Beschimpfungen beispielsweise zerstören jede sachliche Debatte. Das mag simpel klingen, ist es aber nicht. Im Internet bleiben zu viele Beleidigungen und Zuschreibungen stehen.

Ich glaube nicht, dass das Internet die Ursache für gesellschaftliche Dissonanz ist. Das wäre wohl zu kurz gegriffen. Wohl aber kann es diese Dissonanz verstärken und vorantreiben – die Architektur vieler Webseiten hilft oft ausgerechnet den Rüpeln, wie ich auf den nächsten Seiten darlegen werde.

Vermutlich hat die aktuelle Flüchtlingsdebatte viele Menschen auf den Hass und die Hetze im Netz überhaupt erst aufmerksam gemacht und sensibilisiert. Der Eindruck stimmt, dass sich in den vergangenen Monaten die Tonalität verschärft hat: Wenn eine politische Debatte die Gesellschaft entzweit, wird auch die Diskussionskultur im Netz umso verbitterter. Wir können dann auch beobachten, wie radikale Gruppen dieses Klima für sich nutzen und wie sie mit Aggression statt Argumenten versuchen, auf sich aufmerksam zu machen. Zu oft geht diese Strategie auf.

Wenn Sie dieses Buch gekauft haben, sehen Sie das vielleicht ähnlich wie ich: Ein anderer Stil muss beim Diskutieren im Netz doch möglich sein. Es lohnt sich, das Internet als das zu verteidigen, was es eigentlich sein sollte – ein Ort der Aufklärung.

Der Duden bezeichnet die Aufklärung als eine „von Rationalismus und Fortschrittsglauben bestimmte europäische geistige Strömung des 17. und besonders des 18. Jahrhunderts, die sich gegen Aberglauben, Vorurteile und Autoritätsdenken wendet.“4 Ausgerechnet im modernsten Kommunikationstool, das uns zur Verfügung steht, werden diese rückwärtsgerichteten Denkmuster wieder stark sichtbar: Der Aberglaube erlebt eine Renaissance, sowohl auf den Verschwörungstheorieseiten auf Facebook als auch auf Webseiten, die so tun, als könne man die Welt besser mit ganz viel Phantasie als mit wissenschaftlicher Methodik durchblicken. Vorurteile: Sie gehören derzeit zum „Hausverstand“ und zu dem, „was man wohl noch sagen wird dürfen“. Klar darf man vieles sagen – aber andere Menschen dürfen einem dann auch widersprechen, oder? Und drittens: das Autoritätsdenken. Auch dieses findet online einen Nährboden. Die Bewegung namens Pegida beispielsweise ist zunächst als Facebook-Gruppe entstanden und versammelte sich erst dann auf der Straße. Viele ihrer Argumente und Slogans sind dabei autoritär. Wenn Pegidisten online vom „wahren Volkswillen“ sprechen, dann bedeutet dieser Satz im Umkehrschluss auch: „Wer dies anders sieht, ist kein Teil des ‚wahren Volks‘“. Es ist an der Zeit, diesen Mythen und rhetorischen Untergriffen, diesem ständigen Geplappere von der „Wahrheit“ etwas entgegenzusetzen. Vor allem ist es an der Zeit, die Opfer der verbalen Attacken stärker sichtbar zu machen und in Schutz zu nehmen. Auch das ist wichtig: Klarzustellen, wer hier mobbt und wer gemobbt wird. Ich lade Sie ein, mit mir die dunkleren Seiten des Webs zu besuchen – in der festen Überzeugung, dass diese nicht ganz so düster bleiben müssen.

2.FEHLENDE EMPATHIE

Wird über den Hass im Internet diskutiert, taucht stets eine Frage auf: Was ist online anders?

Debatten entgleisen im Internet oft sehr schnell. Menschen, die sonst umgänglich sind, diskutieren online unerbittlich und zeigen eine ungewohnt schroffe Wortwahl. Vielleicht ist der eine oder andere auch schon selbst etwas ruppiger geworden und bereut das im Nachhinein. Schimpfworte und andere Beleidigungen, sie scheinen online schneller über die Lippen zu rutschen, oder genauer gesagt: über die Tastatur.

Genau das ist ein wesentlicher Unterschied: Wir diskutieren im Internet zum größten Teil schriftlich. Sicherlich skypen manche von uns regelmäßig oder nutzen andere Videochat-Programme, doch in den allermeisten Fällen tippen wir den Text in unser Smartphone oder den Computer ein. Dabei fehlt etwas Entscheidendes: der Augenkontakt, die Mimik und Gestik, die Stimme des Gesprächspartners – das physische Gegenüber. Doch dadurch gehen wesentliche Informationen verloren, ausgerechnet diese nonverbalen Signale fördern nachweislich Empathie.

In der Fachsprache wird dies als „Unsichtbarkeit“ im Internet bezeichnet: Man sieht und hört den Gesprächspartner online nicht, und dasselbe trifft auf das Gegenüber zu. Dieser Thematik habe ich mein voriges Buch gewidmet („Der unsichtbare Mensch“). Diese Unsichtbarkeit ist ein Grund, warum Menschen Äußerungen eintippen, die sie kaum jemandem direkt ins Gesicht sagen würden.

Das Gefühl der Unsichtbarkeit enthemmt uns, erkannte John Suler von der amerikanischen Rider University bereits vor mehr als zehn Jahren. Er entwickelte die Theorie des „Online Disinhibition Effects“, zu Deutsch der „Online-Enthemmungs-Effekt“. Manchmal kann Enthemmung etwas Gutes sein, etwa wenn ein schwuler Bursche oder ein lesbisches Mädchen im Internet zum ersten Mal über ihre Gefühle sprechen. Häufig sehen wir jedoch die Schattenseite davon: die sogenannte „toxische Enthemmung“. User toben sich online aus, ätzen herum, vergiften das Diskussionsklima. Es ist ein Irrglaube, dass ein solches Verhalten eine befreiende Wirkung hätte oder irgendjemand hier etwas dazulernen würde. Der Psychologe Suler nennt es „schlichtweg eine blinde Katharsis, ein Ausleben niederträchtiger Bedürfnisse und Wünsche ohne auch nur irgendein persönliches Wachstum.“5

John Suler zählt sechs Faktoren auf, die die Enthemmung im Internet fördern:

Anonymität: man fühlt sich nicht so leicht verwundbar, wenn die anderen den eigenen Namen nicht kennen.

Wie schon gesagt, die Unsichtbarkeit: Sie wird oft auch mit Anonymität verwechselt, ist aber etwas anderes. Während die Anonymität den realen Namen verbirgt, fallen bei der Unsichtbarkeit nonverbale Signale weg. Das erklärt, warum auch Menschen auf Facebook unter ihrem echten Namen schlimmste Aussagen tätigen.

Asynchronität: Wer einen hasserfüllten Kommentar verfasst, bekommt oft kein unmittelbares Feedback. Man muss sich also nicht sofort damit beschäftigen, was die eigenen Worte anrichten. Experten bezeichnen dieses Phänomen mitunter als „emotionale Fahrerflucht“.

Nennen wir es die Phantasievorstellung vom Gegenüber: Wenn wir mit jemandem online chatten, entwickeln wir in unserem Kopf eine Idee vom anderen, bei dieser fließt aber in Wirklichkeit sehr viel von der eigenen Persönlichkeit ein.

Die Trennung zwischen Online- und Offline-Charakter: In der Fachsprache heißt dies die „dissoziative Vorstellungskraft“ und beschreibt die Idee, dass online andere Regeln gelten würden, dass alles nicht so ernst sei, sondern nur ein Spiel.

Fehlende Autorität: In vielen Foren oder in sozialen Netzwerken wird wenig bis nahezu gar nicht moderiert. Die Gefahr, dass eine Beschimpfung zu einem Ordnungsruf führt, ist verglichen mit vielen Diskussionen außerhalb des Internets äußerst gering. Auch dies erleichtert es, schon mal enthemmter zu sein.6

Diese Enthemmung lässt sich im Netz permanent beobachten. Viele Nutzer, die online hart und unnachgiebig kommunizieren, sind im persönlichen Gespräch häufig wesentlich zugänglicher. Im Herbst 2012 arbeitete ich an einem Artikel zu anonymen „Kampfpostern“ – so nennen wir in Österreich jene User, die ein besonders manisches oder aggressives Diskussionsverhalten haben, die mitunter tausende Kommentare zu einem Thema hinterlassen. Ich traf hierfür einige aktive Nutzer des „Standard“. Die Tageszeitung bietet das bedeutendste Leserforum in Österreich an.

Auch hier wollten viele gar nicht mit mir reden oder nur unter größtmöglicher Wahrung der Anonymität. Der Grund dafür war nicht einzig das Misstrauen gegenüber mir als Journalistin, sie wollten vor allem nicht von den anderen Kommentatoren erkannt werden – einer erklärte mir, er hätte Angst, es könnte sonst ein Schlägertrupp vor seiner Tür stehen.

Als ich schließlich doch mehrere Kommentatoren treffen konnte, handelte es sich zumeist um ruhige, freundliche Menschen: Der „Makronaut“ zum Beispiel: Er saß mit mir in seiner Altbauwohnung, ein schlaksiger, gebildeter Mann, Mitte 30. Er hatte einen Job, der ihm viel Freizeit ließ. Im persönlichen Gespräch wirkte er eher zurückhaltend, dachte lange nach, ehe er antwortete. Im Netz hingegen fiel er mit seiner Streitlust auf, er widmete sich einem besonders polarisierten Thema: dem Nahen Osten. Der „Makronaut“ verteidigte unerbittlich die Politik Israels – ihn trieb das Bedürfnis, dass er falsche Meinungen nicht unwidersprochen stehen lassen wollte.7 Ein anderer User nannte sich online „odrr“, ein Mediziner; er bat mich, keine weiteren Details über ihn zu veröffentlichen. Der Mann war im Gespräch ausgesprochen freundlich und differenziert. Er wirkte nicht wie einer, der eine innere Wut in sich trägt. Aber auch er kennt das Gefühl, wenn ihn ein Leserkommentar in Rage bringt. „Jeder Mensch hat eine irrationale Seite“, sagte er damals zu mir. Obwohl dies unspektakulär klingen mag, ist das ein wesentlicher Aspekt: Aggression und Wut sind uns allen nicht fremd. Wir unterdrücken derartige Impulse allerdings häufig, nicht bloß aus Gutmütigkeit, sondern auch aus Selbstschutz – weil unsere Gesellschaft asoziales Verhalten sanktioniert.

Stellen Sie sich vor, Sie stehen an der Supermarktkassa und der Mann vor ihnen rastet komplett aus: Die Kassiererin hat seine Mineralwasserflasche fallen gelassen, jetzt liegen überall auf dem Boden Scherben und alles ist nass. Der Mann beginnt zu schreien, bezeichnet die Frau als „Trampel“ oder als „dumme Schlampe“, die „niemals geboren hätte werden“ sollen. Wie reagieren Sie in einem solchen Fall? Ich wette, Sie schauen zumindest verblüfft. Vielleicht schütteln Sie den Kopf, heben die Augenbraue oder beginnen peinlich berührt zu lachen. Womöglich erheben Sie sogar die Stimme, sagen etwas wie: „Hören Sie auf, so mit der Frau zu reden!“ Auf jeden Fall wird es in diesem Szenario eine Reaktion geben, sowohl von der Kassiererin wie auch von den herumstehenden Personen. Und selbst wenn kein einziges Wort fällt, ist die Wahrscheinlichkeit hoch, dass dieser Mann zumindest böse Blicke erntet. Wir Menschen können allein mit Augenkontakt jemandem zu verstehen geben, dass wir ihn als asozialen Wurstel empfinden.

Gerade weil nonverbale Signale so beklemmend sein können, kommt es offline oft gar nicht zu solchen Situationen. Am Gesichtsausdruck des Gegenübers sieht man, ob man in der Tonalität zu harsch wird. Dass Augenkontakt tatsächlich empathiefördernd ist, fanden auch die israelischen Forscher Noam Lapidot-Lefler und Azy Barak heraus.

Sie führten folgendes Experiment durch: 142 Studierende wurden vor einen Computer gesetzt. Sie mussten mit einem anderen Studien-Teilnehmer über das Internet diskutieren und ein ethisches Dilemma ausfechten. Jeder von ihnen benötigte ein lebensrettendes Medikament für eine Person, die ihnen am Herzen lag. Doch pro Diskussionspaar gab es nur eine Dosis. Die Studierenden verhandelten, wer dieses Medikament bekommen soll, und versuchten den anderen von der eigenen Position zu überzeugen. Die Paare wurden in Gruppen geteilt: Den einen wurde die Identität des Gesprächspartners mitgeteilt, somit gab es keine Anonymität. Die anderen konnten ihren Partner von der Seite aus via Kamera beobachten, es herrschte keine Unsichtbarkeit. Und die dritten hatten direkten Augenkontakt mit ihrem Gegenüber via Webcam. Über ein Chatprogramm diskutierten diese Paare anschließend miteinander. Die Forscher werteten aus, wie oft es zu Beleidigungen gekommen war.

Das Ergebnis: Augenkontakt wirkte sich besonders positiv aus. Es kam bei diesen Gesprächspaaren zu weniger Beleidigungen und Drohungen. Sie notieren: „Unsere Ergebnissen deuten darauf hin, dass bezüglich toxischer Enthemmung fehlender Augenkontakt die Teilnehmer dazu bringt, sich weniger exponiert und mehr anonym zu fühlen, sodass sie eher dazu neigen, beleidigendes Verhalten anzuwenden.“8 Diese Studie unterstützt die Aussage, dass Menschen online Dinge von sich geben, die sie niemandem ins Gesicht sagen würden.

Macht das Internet den Menschen zu einem rücksichtsloseren Individuum? Wohl kaum. Wahrscheinlicher ist es, dass wir online Facetten und Impulse vieler Menschen sehen, die sonst verborgen oder unterdrückt bleiben. Daher ist es auch ein Irrglaube, dass Pöbeleien im Internet irgendeine „befreiende Wirkung“ hätten. Genauso ließe sich argumentieren, dass es eine „befreiende Wirkung“ hat, wenn der Stärkere dem Schwächeren ins Gesicht schlagen darf.

Die Menschheit hat über lange Zeit hinweg sowohl Regeln als auch Umgangsformen entwickelt, um Gewalt zunehmend einzudämmen. Diese These vertritt zumindest der Psychologe Steven Pinker von der Universität Harvard. In einem Interview mit dem „Spiegel“ sagte er einmal: „Aggression und Gewalt sind in der menschlichen Natur angelegt, weil sie in der Evolution förderlich sein können. Der Prozess der Zivilisation läuft aber darauf hinaus, Normen und Institutionen zu schaffen, die Gewalt ersetzen und gewissermaßen unrentabel machen.“9

Von Kindheit an wird uns diese Unrentabilität von verbaler und nonverbaler Gewalt mit Sprüchen erklärt wie: „Was du nicht willst, dass man dir tu, das füg’ auch keinem andern zu.“ Oder: „Wie man in den Wald hineinruft, so schallt es heraus.“ Es ist wichtig, auch im Internet Verantwortung für das eigene Verhalten einzufordern. Diese Binsenweisheiten sollen auch dort ihre Gültigkeit haben.

Dieser „Prozess der Zivilisation“ dehnt sich nun auf das Netz aus und wir lernen schrittweise, online deutlichere Grenzen zu setzen und zu viel Enthemmung zu sanktionieren. Nur wie kann uns das im Konkreten gelingen? Es ist unrealistisch, dass wir in Zukunft permanent via Webcam kommunizieren werden, bloß damit es Augenkontakt gibt. Wohl aber können wir es klarer machen, dass Worte Konsequenzen nach sich ziehen können. Selbst sanfte Konsequenzen haben mitunter eine überraschende Wirkung – ähnlich der Scham, die man spürt, wenn einen böse Blicke an der Supermarktkassa durchbohren.

Der US-Journalist David Pogue, der früher bei der „New York Times“ war und heute für Yahoo arbeitet, erzählte mir einmal, wie er auf aggressive Leser reagiert, auf Zeilen wie: „Lieber David, zuerst möchte ich sagen, dass du nur Scheiße redest (…).“ Pogue meinte: „Manchmal schreibe ich nur: ‚Ich antworte gern Ihren Bedenken, wenn Sie Ihre Nachricht nochmal schicken können, ohne dabei ausfällig zu werden.’ Manchmal gehe ich auch auf die Kommentare ein. In ihrer Antwort entschuldigen sich die Leute dann fast immer und beschwichtigen. Mir scheint, die rechnen keine Sekunde damit, dass ich tatsächlich antworte. Und wenn ich’s dann doch tue, ist ihnen ihr voriges E-Mail furchtbar unangenehm.“10

Dass Menschen online das Gewicht ihrer eigenen Worte unterschätzen, ist ein zentrales Problem und hängt auch mit dem Gefühl der Unsichtbarkeit im Internet zusammen. Viele Personen, die hasserfüllte E-Mails an Fremde senden, bedenken gar nicht, was ihre Worte anrichten. Sie sind ganz verdutzt oder peinlich berührt, wenn sie von der betroffenen Person auf ihre unfreundliche Aussage angesprochen werden. Mit einer Rückmeldung rechnen sie nicht, sie fühlen sich regelrecht unsichtbar und erwarten keine Konsequenzen. Das Beispiel von David Pogue zeigt, wie wichtig es ist, gegen dieses Gefühl der Unsichtbarkeit und Konsequenzenlosigkeit anzukämpfen – und sei es auch nur mit einem simplen E-Mail (wobei es auch andere Strategien gibt, wie ich später erklären werde). Die fehlenden nonverbalen Signale, das fehlende unmittelbare Feedback sind also ein wesentlicher Unterschied zwischen Diskussionen im und außerhalb vom Netz. Ein weiterer Aspekt unterscheidet die Welt außerhalb des Internets von jener online: die schiere Auswahl und die vielen Nischen, die sich bieten. Diese immense Vielfalt macht das Internet zu einer aufregenden und erfüllenden Erfindung, gleichzeitig löst dieses Maß an Möglichkeiten auch etliche Probleme aus – mitunter kommt es zu einer Fragmentierung der Gesellschaft.

3.DIGITALE ABSCHOTTUNG

Vielleicht hatten Sie als Kind auch ein verschrobenes Hobby, für das Sie von den Klassenkollegen eher belächelt wurden. Ich jedenfalls war schon immer ein Science-Fiction-Fan, von Serien wie „Star Trek“ und „Babylon 5“ versäumte ich möglichst keine Folge. Anfang der 1990er-Jahren war das nicht gerade ein mehrheitstaugliches Interesse: Ein paar Freunde von mir sahen das zwar ähnlich, aber einfach war es nicht, Gleichdenkende oder gute Informationen über sein Hobby zu finden. Als Jugendliche habe ich Stunden in der Buchhandlung bei den importierten Science-Fiction-Zeitschriften verbracht und heimlich dort die Artikel gelesen. Dermaßen trist war das früher, wenn man sich für einen selteneren Zeitvertreib und nicht für die Boyband des Monats interessierte. Dann kam das Internet, das vielen „Geeks“ (das sind Personen, die sich leidenschaftlich einem Interesse hingeben) signalisierte: Hey, du bist ja gar nicht so komisch!

Es war immer schon so, dass wir lieber mit jenen Personen Zeit verbringen, die gleiche Interessen und Werte haben. Auch ist es seit jeher so, dass wir Informationen, die unsere Sichtweise bestätigen, tendenziell mehr Gewicht geben – die Wissenschaft nennt dies den „Confirmation Bias“. Nur ist es aufgrund der Digitalisierung leichter geworden, Gleichdenkende und Informationen aufzuspüren, die uns bestätigen.

Dass sich nun Science-Fiction-Fans zusammenfinden können, hält wohl kaum jemand für bedenklich. Anders ist dies aber bei Interessen, die auf der Leiter der sozialen Anerkennung weiter unten angesiedelt sind; zum Beispiel Verschwörungstheoretiker. Wer früher an Ufos glaubte, konnte natürlich Publikationen aus dem Kopp-Verlag bestellen, der von Esoterik bis hin zu rechter Geschichtsdeutung seit langem ein fragwürdiges Nischenprogramm bietet. Man konnte auch zu einschlägigen Ufologen-Treffen gehen, bei denen man endlich Gleichdenkende antraf. Doch das alles brauchte viel Einsatz – man musste für diese Themen wirklich glühen.

Heute reichen ein paar Klicks auf Facebook, um sich tiefer und tiefer in eine Community zu begeben. Problematisch wird dies dann, wenn einzelne Gruppierungen zur fundamentalen Opposition zum Rest der Gesellschaft werden – wenn sie in keinen Austausch mehr mit anderen treten wollen oder dies nur dann zu tun, wenn sie sich über diese Andersdenkenden aufregen wollen oder sogar zu diskriminierenden Mitteln greifen. Genau dieser Effekt ist online beobachtbar. Mehr als das: Er ist sogar messbar.

Das Internet ermöglicht die Entstehung sogenannter „Echokammern“, das sind digitale Räume, in denen Nutzer hauptsächlich Inhalte eingeblendet bekommen, die ihre Meinung bekräftigen. Wie ein Echo hallt es darin zurück. Eine Untersuchung italienischer und amerikanischer Forscher bestätigt die Existenz dieser Echokammern. Konkret verglichen die Wissenschaftler, wie sich Informationen rund um unterschiedliche Interessensgruppen verbreiten. Sie analysierten dafür 67 italienische Facebook-Seiten und all ihre öffentlichen Beiträge innerhalb der vergangenen fünf Jahre. Es handelte sich um 32 Fanpages zu Verschwörungstheorien, 35 Seiten, die wissenschaftliche Neuigkeiten verbreiten, und zwei Troll-Pages, das sind Seiten, die bewusst Falschinformation streuen und sich über die Leichtgläubigkeit der Menschen lustig machen.11

Ich habe mit Michela Del Vicario, einer dieser Studienautorinnen gesprochen, die am Labor für Computational Social Science in Lucca, Italien, forscht. „Es ist ziemlich alarmierend, wie wenig Achtsamkeit auf die Glaubwürdigkeit einer Quelle gelegt wird und wie leicht sich dementsprechend Falschinformationen verbreiten“, berichtet sie. Als Verschwörungstheorie-Seiten kategorisierten die Wissenschaftler Fanpages, die alternative und kontroverse Ansichten verbreiteten, für die entsprechende Nachweise fehlten. Solche Verschwörungstheorien sagen etwa, dass Impfen Autismus verursacht (was wissenschaftlich widerlegt ist) oder sie warnen vor einer „Neuen Weltordnung“, einer Art geheimen, bösartigen Weltregierung.

Faszinierend ist, wie stark die unterschiedlichen Gruppen – die Anhänger von Verschwörungstheorien gleichermaßen wie die Fans von Wissenschaftsnachrichten – unter sich blieben. Die Forscher notierten in ihrer Studie: „User tendieren dazu, sich in Communitys mit demselben Interesse zu aggregieren, was zu einer Verstärkung des ‚Confirmation Bias‘ führt, zur Abgrenzung und zur Polarisierung. Dies schadet der Informationsqualität und führt zu einer starken Vermehrung von voreingenommenen Sichtweisen, geschürt durch nicht belegte Gerüchte, Misstrauen und Paranoia.“12

Konkret sprechen Del Vicario und ihre Kollegen von „homogenen, polarisierten Clustern“ – das sind Ansammlungen von Menschen, die gleiche Interessen haben und zu anderen Gruppen kaum Kontakt pflegen. Das Unbehagliche an dieser Polarisierung ist, dass der Austausch häufig nur noch stattfindet, um sich die eigenen Vorurteile bestätigen zu lassen. „Spiegel Online“ hat dies zutreffend formuliert: „Aus Echokammern werden Echobunker“.13

Das zeigten die italienischen Forscher in einer weiteren Studie. Sie heißt auf Deutsch übersetzt: „Emotionale Dynamiken im Zeitalter der Fehlinformation“. Die Wissenschaftler haben hierfür eine Million Facebook-Kommentare auf ihre Tonalität hin untersucht, die Auswertung bestätigte vieles, was Internetuser Tag für Tag erleben. Mit fortschreitender Länge einer Online-Diskussion wird es immer ruppiger. Erscheinen unter einem Facebook-Posting viele Kommentare, steigt die Wahrscheinlichkeit von negativen Wortmeldungen.14

Auch hier sahen sich die Forscher erneut sowohl die Anhänger von Wissenschaftsseiten als auch jene von Verschwörungstheorien auf Facebook an. Zwei Unterschiede sind interessant: Erstens wird auf Wissenschaftsseiten deutlich fröhlicher diskutiert. Während 70 Prozent der Kommentare bei Wissenschafts-Pages positiv oder neutral sind, ist dies bei den Verschwörungsseiten nur bei 51 Prozent der Fall. Noch konkreter: Bei den Science-Pages ist jeder fünfte Kommentar positiv, bei den Verschwörungsseiten nur jeder zehnte.

Näher betrachtet ist dies gar nicht so verwunderlich: Denn was tun Anhänger von Verschwörungstheorien auf Facebook? Sie regen sich über ein Komplott auf und darüber, dass der Rest der Gesellschaft beharrlich dieses Komplott ausblendet. Das kann keine angenehme Weltsicht sein. Stellen Sie sich vor, Sie würden daran glauben, dass es eine Verschwörung unter Ärzten, Politikern und der Pharmaindustrie gibt, die die Lüge in die Welt gesetzt hätten, Viren würden Krankheiten auslösen. Tatsächlich aber, so meinen sie, führen Impfungen in Wahrheit zu Krankheiten sowie zu Autismus – und bei den staatlichen Kampagnen zum Impfen wird bewusst ein Teil der Bevölkerung angesteckt. Wahrscheinlich wären Sie in diesem Fall auch nicht gut gelaunt. Verschwörungstheoretiker machen sich selbst das Leben schwer, indem sie allerorts Bedrohungen orten.

Die zweite Erkenntnis dieser Studie zu den Emotionen auf Facebook ist noch spannender: „Wenn diese Communitys miteinander interagieren, weisen die Beiträge eine höhere Konzentration negativer Stimmung auf.“15 Einfacher gesagt: Wenn Anhänger von Verschwörungstheorien und Wissenschafts-Fans aufeinander treffen, verstehen sich diese Gruppen nicht. Hier ist die Wahrscheinlichkeit umso höher, dass es zu einer negativen Wortwahl kommt.

Das Beispiel Impfen illustriert dies gut: Zeigt erneut eine Studie auf, dass es keinen Zusammenhang zwischen Impfen und Autismus gibt, dann könnte diese Nachricht sowohl Impfgegner als auch wissenschaftlich interessierte Menschen beschäftigen. Treffen diese zwei Gruppen aufeinander, werden sie aber kaum einen Konsens finden: Die Impfgegner reden erneut von einer „bezahlten Studie“, selbst wenn es dafür gar keinen Beleg gibt. Die Impfbefürworter reagieren darauf häufig mit Häme, nennen das „paranoid“ oder gar „dumm“. Dementsprechend verhärtet sich dann auch noch das Diskussionsklima.

Die Studie der italienischen Wissenschaftler zeigt vor allem, wie sehr wir Menschen online aneinander vorbeireden. In den sozialen Medien lässt sich permanent ein Scheitern des menschlichen Diskutierens beobachten – ein Scheitern, das dadurch vereinfacht wird, dass diese Gruppen sich so leicht abspalten und radikalisieren können. Denn Echokammern erleichtern Radikalpositionen. Je seltener ich auf Andersdenkende treffe, umso weniger muss ich meine eigenen Argumente hinterfragen.

Diese Abschottung wird von einigen Gruppierungen sogar bewusst den eigenen Mitgliedern empfohlen: Das erleichtert ein „Wir gegen die“-Gefühl und verhindert, dass die eigenen Anhänger zu viel mit anderen Gedanken in Kontakt kommen. In meinen Augen ist zum Beispiel Pegida eine solche Parallelgesellschaft, die sowohl online als auch offline existiert.

Anfang Februar 2015 ging Pegida in Wien zum ersten Mal auf die Straße. Es handelte sich dabei um einen eher schwachen Aufmarsch: 400 Demonstranten, teilweise eindeutig aus der rechten Szene, standen 5000 linken Gegendemonstranten gegenüber. Ungewöhnlich war allerdings, wie emotional dieses Event im Internet im Nachhinein diskutiert wurde. Mehrere Teilnehmer der Veranstaltung hatten die Hand zum Hitlergruß erhoben. Ich war als Journalistin vor Ort und habe dies auch beobachtet. Es gibt sogar Bildbelege davon. Der „Kurier“-Fotograf Jürg Christandl veröffentlichte eine solche Aufnahme, ein weiteres Video zeigt, wie einzelne ihre Hand in NS-Manier erhoben.16 17 Für mein Medium, das Nachrichtenmagazin „profil“, schrieb ich über diese – sowohl in Österreich als auch Deutschland verbotene – Geste bei der Veranstaltung. Die Reaktionen darauf waren schockierend.

„Journalisten Terroristen, Ihr seit die Lügner der Nation“, erklärte der User Manuel F. auf der Facebook-Seite von „profil“ dazu. „Ihr seid so armselige Würsteln ihr Lügenschreiberlinge“, schrieb ein Michael R., die Nachnamen wurden von mir anonymisiert. „Ich kaufe keine Zeitung mehr. Hab es satt lügen zu finanzieren“, erklärte einer mit Pseudonym. Christina P. meinte: „geh komm bitte, selten so einen schlechten Bericht gelesen!“ Und ein weiterer Nutzer mit Pseudonym schrieb: „was bekommen sie von der SPÖ für so Lügenberichte oder bekommen sie was von den Grünen????“18

Es ist natürlich nicht angenehm, als „armseliges Würstel“ oder als korrupt beschimpft zu werden. Als wirklich erschreckend empfinde ich allerdings nicht die Wortwahl, sondern die Denkweise vieler dieser Kommentatoren: Selbst Bildbelege wollten sie nicht anerkennen, sahen diese als Täuschung, als einen weiteren Beleg, wie sie von Medien belogen werden. Sie hielten es nicht für wahrscheinlich, dass sich auf einer rechten Demo auch Rechtsradikale versammelt hatten. Ihnen schien es naheliegender, dass es tatsächlich ein Komplott unter etlichen Journalisten gab, die „besorgte Bürger“ als Nazis verunglimpfen. Wie sehr manche Menschen nicht mehr glauben wollen, was sie in etablierten Medien lesen, wurde hier deutlich.

Pegida ist nur ein Symptom für einen größeren Wandel: der Polarisierung der politischen Debatte, dem Auseinanderdriften gesellschaftlicher Gruppen. Das Internet verstärkt dieses Auseinanderdriften mitunter, es hilft oft den radikaleren Akteuren. Schreihälse finden online tatsächlich mehr Gehör. Darauf deutet eine Untersuchung von den Wissenschaftlern Daegon Cho und Alessandro Acquisti aus dem Jahr 2013 hin; damals forschten beide an der Carnegie Mellon University in den Vereinigten Staaten. Sie analysierten 75.000 Leserkommentare auf südkoreanischen Nachrichtenseiten. Unter anderem ermittelten sie dabei, welche Wortmeldungen die meisten Likes erhielten. In etlichen Zeitungsforen kann man Userkommentare bewerten, diese zum Beispiel als „gut“ oder „nicht hilfreich“ einschätzen, rote oder grüne Striche verteilen oder den Kommentar empfehlen. Eine Erkenntnis der Auswertung der beiden Forscher: Kommentare mit Schimpfworten erhielten mehr Likes, sie ernteten öfters Bestätigung.19

Wer also stänkert, dem wird signalisiert, nur weiter so, Daumen hoch. Aber das ist nicht das einzig Problematische daran: Wer besonders viele Likes erhält, wird in Folge mit noch mehr Aufmerksamkeit belohnt – dafür sorgen Algorithmen, die Meldungen für uns filtern.