Facebook: Calls to Violence, Yes, but Just No Nipples

Published in Die Presse
(Austria) on 18 September 2015
by Bernhard Pörksen (link to originallink to original)
Translated from by Sandra Alexander. Edited by Bora Mici.
The controversy over the hate and violence fantasies in social networks shows that digital society must change.

It was an illuminating experiment, a clever provocation. On Sept. 8, journalist Joachim Dreykluft was enraged once again. He is annoyed with Facebook because of all the hate commentary in the face of the refugee crisis, the gassing and murder fantasies that remained despite complaints and protests.

Dreykuft writes an online commentary, and criticizes Facebook as “asocial and hypocritical,” linking the article with a thumbnail photo that shows the easily recognizable nipples of a woman. He knows that he is violating so-called community standards because the distinguishability of nipples in the universal platform is considered a cause to merit banning a post for inappropriateness.

And in fact, the picture was removed, his Facebook account was locked, and he received the message, “You recently posted something that violates Facebook guidelines.” It apparently doesn’t really violate the guidelines when one wishes death for the refugees, wants to transport them to gas chambers in Auschwitz, fantasizes about shooting them with one’s own hand, or likes the picture of little Aylan Kurdi found drowned on the beach of the Turkish city of Bodrum.

The Question of Responsibility

Comments like these remain to the dismay of many, even after the resulting complaints that need to be followed up for legal reasons. Obviously, Facebook has announced the formation of a task force after the debates last week and the intervention of politicians. One was assured that all evidence was taken very seriously. And yet, the question remains — despite all intentions — how can it be that such threats of violence are left standing in spite of multiple complaints, but a naked breast, or the picture of completely exposed buttocks (this is not a less rigorously executed guideline) is deleted and avenged with temporary Facebook banishment?

The first answer is that it could become uncomfortable and expensive for Facebook (which had an annual profit of almost $3 million in 2014) to increase the invisible, often-migrated-to-other-countries army of digital trash sorters. The second answer amounts to the fact there is, perhaps, a different rigorous understanding of freedom of expression in Germany and in the U.S. when it comes to what propaganda and prudery are permitted.

The third answer leads directly to the contradictory universe of argument of Facebook itself, because on the one hand, one tracks pictures of nipples and buttocks with some energy, but on the other hand, one strictly rejects any editorial responsibility. No, one does not want to intervene — thus Greg Marra, responsible for the news feed algorithm of Facebook and therefore the most powerful newsmaker in the world, told The New York Times, “We don’t want to have editorial judgment over the content that’s in your feed.”

One can sneer at such “technocratic posturing” (Evgeny Morozov ) as a somehow confusing dodging of responsibility. But hidden behind the recently experienced “Clash of the Codes,” the current wrestling over normative certainty in a pool of colliding values is the core issue of digital modernity, which is: Who is responsible for the quality of publishing behavior?

In another time, it appeared rather clear. There were powerful gatekeepers in the form of journalists, institutionally identifiable journalistic centers of power with enormous interpretational sovereignty that could decide what got published or what did not.

Three Worlds of Information

Today, everyone who has access to the Internet and consumes media lives in three worlds of information intertwined with one another; they are the result of variably transparent, more or less self-determined selection decisions.

Naturally, the world of mass media and classical journalism is, counter to rumors to the contrary, still very present, even if it is losing influence because of declining advertising revenues and changing user habits. The selection decisions that govern here are at least principally known because so-called news values have been researched, discussed and criticized for years.

On the other hand, there is the world of completely individual selection and publication decisions that is open to anyone in the digital age. One must and can decide for oneself what sources one trusts, what one posts, shares, and publicizes — and into which bubble of reality one possibly Googles.

Tunnel of Self-Affirmation

The third information world arises from the non-transparent selection decisions and publication standards employed by search engines and social networks. Often, algorithms govern here; secret recipes for the construction of reality that advance some news items and let others disappear.

As shown by online activist Eli Pariser, these mechanisms can lure the individual into a tunnel of self-affirmation and a filter bubble of self-interest that he at some point possibly considers an accurate portrayal of the outside world.

Thus seen, it is no longer only a matter of the ignorance of Facebook, but a matter of looking to the three powers of the emergence of publishing (the individual, classical journalism, and the digital monopolists) to continue the debate that has now emerged.

The goal would be the expansion of the journalistic zone of responsibility, the gradual change of digital society into an “editorial society” (Cordt Schnibben) that, alongside private enjoyment, orients itself to the guiding principles of educational information brokering.

Schools and Universities as Laboratories

That would mean that a normative understanding of the origin of publishing would need to be taught in colleges and universities to keep pace with the times. Schools and universities can see themselves as a laboratory, a sphere that is protected but characterized by the current media reality, where the mechanisms of publishing can be studied and put to the test.

Orienting ourselves in the direction of an editorial society, however, also means that the ridiculous excuses of those who do not like to delete utter hate and violence-inciting propaganda, although the complaints are piling up, are no longer politically and legally tolerable. And it essentially means that no one who posts and publishes today can act as if the quality of the published material is not his concern.


Die Kontroverse um Hass- und Gewaltfantasien in den sozialen Netzwerken zeigt: Die digitale Gesellschaft muss sich wandeln.

Es war ein erhellendes Experiment, eine kluge Provokation. Am 8. September packt den Journalisten Joachim Dreykluft die Wut, wieder einmal. Er ärgert sich über Facebook, über all die Hasskommentare im Angesicht der Flüchtlingskrise, die Vergasungs- und Mordfantasien, die trotz Beschwerden und Protestaktionen vieler Menschen stehen bleiben.

Dreykluft schreibt einen Onlinekommentar, kritisiert Facebook als „asozial und heuchlerisch“ und verlinkt den Artikel mit einem Vorschaubild, das die gut erkennbaren Brustwarzen einer Frau zeigt. Er weiß, dass er damit gegen die sogenannten Gemeinschaftsstandards verstößt, weil die Erkennbarkeit von Brustwarzen im Plattform-Universum als Schlüsselreiz verbannungswürdiger Unangemessenheit gilt.

Und tatsächlich, das Bild wird entfernt, sein Facebook-Account gesperrt, er erhält die Nachricht: „Du hast kürzlich etwas gepostet, das gegen die Facebook-Richtlinien verstößt.“ Nicht wirklich gegen die Richtlinien verstößt es anscheinend, dass man Flüchtlingen den Tod wünscht, sie nach Auschwitz und in die Gaskammern transportieren will, ihre eigenhändige Erschießung herbeifantasiert oder sich über das Bild des kleinen Ailan Kurdi freut, ertrunken aufgefunden auf dem Strand der türkischen Küstenstadt Bodrum.

Die Verantwortungsfrage

Kommentare dieser Art bleiben zum Entsetzen vieler stehen, eben auch nach erfolgter Beschwerde, der schon aus juristischen Gründen eigentlich nachgegangen werden müsste. Klar, Facebook hat nach den Debatten der letzten Wochen und der Intervention von Politikern die Gründung einer Arbeitsgruppe angekündigt, einer „Taskforce“. Man hat versichert, man nehme alle Hinweise sehr ernst. Und doch bleibt – allen Absichtserklärungen zum Trotz – die Frage: Wie kann es sein, dass derartige Gewaltdrohungen trotz vielfacher Beschwerden einfach stehen bleiben, aber eine nackte Brust oder das Bild eines vollumfänglich entblößten Pos (auch diese eine nicht minder rigoros exekutierte Richtlinie) gelöscht und mit zeitweiliger Facebook-Verbannung geahndet werden?

Die erste Antwort lautet, dass es für Facebook (Jahresgewinn 2014: fast drei Milliarden Dollar) unbequem und teuer werden könnte, die unsichtbare, oft in anderen Ländern angesiedelte Armee der digitalen Müllsortierer zu verstärken. Die zweite Antwort besagt, dass es etwa in Deutschland und in den USA ein unterschiedlich rigoroses Verständnis von Meinungsfreiheit, gerade noch erlaubter Propaganda und Prüderie gibt.

Die dritte Antwort führt einen direkt in das widersprüchliche Argumentationsuniversum von Facebook selbst, weil man zwar einerseits Brustwarzenfotos und Pobilder mit einiger Energie verfolgt, aber andererseits jede redaktionelle Verantwortung strikt zurückweist. Nein, man wolle nicht eingreifen – so hat Greg Marra, zuständig für den Newsfeed-Algorithmus von Facebook und damit der mächtigste Nachrichtenmacher der Welt, den „New York Times“ gesagt. Wörtlich: „Wir möchten keinerlei redaktionelle Entscheidungen treffen, was im Feed von Ihnen erscheint.“

Man kann eine solche „technokratische Pose“ (Evgeny Morozov) als irgendwie konfus wirkende Flucht aus der Verantwortung belächeln. Aber hinter dem aktuell erlebbaren „Clash of Codes“, dem jetzigen Ringen um normative Gewissheit in einem Pool kollidierender Werte, verbirgt sich die Kernfrage der digitalen Moderne, die da heißt: Wer ist für die Qualität des Öffentlichen verantwortlich?

In einer anderen Zeit schien das ziemlich klar. Es waren mächtige Gatekeeper in Gestalt von Journalisten, institutionell fassbare publizistische Machtzentren mit enormer Deutungshoheit, die darüber entscheiden konnten, was publiziert wird und was nicht.

Drei Informationswelten

Heute lebt jeder, der einen Netzzugang besitzt und Medien konsumiert, in drei ineinander verschachtelten Informationswelten; sie sind Resultat unterschiedlich transparenter, mehr oder minder selbstbestimmter Auswahlentscheidungen.

Natürlich, die Welt der Massenmedien und des klassischen Journalismus ist entgegen anderslautenden Gerüchten nach wie vor sehr präsent, auch wenn sie aufgrund schwindender Anzeigenumsätze und sich ändernder Nutzungsgewohnheiten an Einfluss verliert. Die Auswahlentscheidungen, die hier regieren, sind zumindest prinzipiell bekannt, denn die sogenannten Nachrichtenwerte werden seit Jahrzehnten erforscht, diskutiert und kritisiert.

Demgegenüber steht die Welt der gänzlich individuellen Auswahl- und Publikationsentscheidungen, die im digitalen Zeitalter jedem auferlegt sind. Man muss und kann sich entscheiden, welchen Quellen man traut, was man postet, teilt und publiziert – und in welche Wirklichkeitsblase man sich womöglich hineingoogelt.

Tunnel der Selbstbestätigung

Die dritte Informationswelt ergibt sich aus den intransparenten Auswahlentscheidungen und Publikationsstandards, die Suchmaschinen und soziale Netzwerke verwenden. Oft sind es Algorithmen, die hier regieren, Geheimrezepte der Wirklichkeitskonstruktion also, die einzelne Nachrichten pushen und andere verschwinden lassen.

Diese Mechanismen können den Einzelnen, wie der Online-Aktivist Eli Pariser gezeigt hat, in einen Tunnel der Selbstbestätigung und eine Filterblase der eigenen Interessen und Vorannahmen hineinlocken, die er womöglich irgendwann für ein naturgetreues Abbild der äußeren Welt hält.

Es geht also – so gesehen – nicht mehr nur um die Ignoranz von Facebook, sondern darum, die drei Mächte der Öffentlichkeitsentstehung (das Individuum, den klassischen Journalismus, die Digital-Monopolisten) gemeinsam zu betrachten, um die nun entstandene Debatte weiterzuführen.

Ziel wäre die Ausweitung der publizistischen Verantwortungszone, die allmähliche Verwandlung der digitalen Gesellschaft in eine „redaktionelle Gesellschaft“ (Cordt Schnibben), die sich, neben dem privaten Vergnügen, an den Leitmaximen aufklärerischer Informationsvermittlung orientiert.

Schulen und Unis als Labor

Das hieße in der Konsequenz, dass ein normatives Verständnis der Entstehung von Öffentlichkeit an den Schulen und Universitäten gelehrt werden müsste, das auf der Höhe der Zeit ist. Schulen und Universitäten könnten sich als ein Labor begreifen, als ein geschützter, aber doch von der aktuellen Medienwirklichkeit geprägter Raum, in dem die Mechanismen des Öffentlichen studiert und erprobt werden könnten.

Die Orientierung in Richtung einer redaktionellen Gesellschaft besagt aber auch, dass die lächerlichen Ausflüchte derjenigen, die blanken Hass und zur Gewalt aufreizende Propaganda nicht löschen mögen, obwohl sich die Beschwerden häufen, politisch und juristisch nicht mehr länger tolerierbar sind. Und es bedeutet im Kern, dass heute niemand, der postet und publiziert, mehr so tun kann, als ginge ihn die Qualität des Öffentlichen nichts an.
This post appeared on the front page as a direct link to the original article with the above link .

Hot this week

Australia: Trump’s Tariffs Were Already Ever-Changing. Now, Court Fights Add to the Uncertainty

Canada: Scorning Trump’s Golden Dome Would Be a Mistake

Australia: At Debt’s Door: America’s Superpower Is Waning and Trump’s Part of the Problem

Australia: Which Conflicts of Interest? Trump Doubles Down on Crypto

Topics

Germany: Trump for the Charlemagne Prize!

Canada: It Turns Out Trump’s Tariffs Were Illegal After All

Australia: Trump’s Tariffs Were Already Ever-Changing. Now, Court Fights Add to the Uncertainty

Austria: Soon Putin Will Have Successfully Alienated Trump

Canada: Scorning Trump’s Golden Dome Would Be a Mistake

Related Articles

Hong Kong: Foreign Media Warn US Brand Reputation Veering toward ‘Collapse’ under Trump Policy Impact

Austria: The Harvard President’s Voluntary Pay Cut Is a Strong Signal

Austria: Deterrence, but Not for Everyone

Austria: Maybe Trump’s Tariff Bludgeon Was Good for Something after All

Austria: Trump’s Film Tariffs Hurt Hollywood