Following the live video broadcast of the Christchurch massacre in New Zealand, it is imperative that we make web platforms more accountable so they do not serve as a sounding board for hate speech.
Live death. This is the nauseating sight that hundreds of thousands of people shared on the internet on March 15. The far-right terrorist Brenton Tarrant, who massacred 50 people in two Christchurch, New Zealand mosques, had indeed taken the cynical initiative of filming and broadcasting his act in real time on Facebook to give himself even more resonance.
The social network took almost half an hour to respond, during which time the first internet user reported the content of the video. It was too late. Thanks to the viral nature of the internet, the disgraceful act spread like wildfire after being shared on Facebook, YouTube and various other platforms.
This scandal exposes the limited control social networks have over video sharing. Mark Zuckerberg's team claims to have removed 1.5 million copies of the attack video, including 1.2 million copies before the video was loaded on the platform. Important, but insufficient. In addition to the hundreds of thousands of people who have actually seen it, websites — both reputable and disreputable — are still able to duplicate and share the offensive content.
The problem is not limited to inciting extremely unhealthy voyeurism. Broadcasting the video contributes to a very dangerous proselytism. Just hours after the killing, American “alt-right” sympathizers, neo-Nazis and extremists collectively shared the video to celebrate their new "hero," some calling on others to take inspiration from his act.*
Eradicate the Extremist Ecosystem
Under the guise of respect for freedom of expression — the founding principle of the web and a cardinal value in the United States, which generates most of these major platforms — these videos contribute, through no fault of their own, to the dissemination of hate speech.
After years of acting irresponsibly, the giants of the internet have addressed moderation with success, more or less. Automatic filtering to combat online pedophilia works well globally. Since 2016, this process has been adapted to deal with terrorist content. The Christchurch drama shows that we still have a long way to go.
The difficulty is that this transition is essential to the operation of these large platforms. It is a question of appealing to emotion and permanent outrage to increase visibility, to arouse the highest number of possible reactions for the best, but, too often, for the worst. Online communities, organized in silos, become the realm of the inter-self, a situation which encourages one to communicate with those who resemble you, and which ends up removing inhibitions by fueling a speech freed from any contrarian views. It’s obvious that these viral tools are more effective in spreading extremist ideas than in spreading moderate positions.
It will be very difficult to eradicate the online extremist ecosystem that thrives on encrypted forums where radical Islamists and far-right activists have every opportunity to disseminate their deadly paranoia in the name of a clash of civilizations. The priority is to prevent large platforms from acting as sounding boards. The social platforms must use their technological power to stem the phenomenon. As for political leaders, they must hold large platforms responsible by enacting sufficiently dissuasive legislation so that a tragedy like Christchurch can never again be used or exploited.
*Editor’s note: “Alt-right” refers to a white nationalist movement.
Après la diffusion en direct de la vidéo du massacre de Christchurch en Nouvelle-Zélande, il est urgent de responsabiliser les plates-formes du Web afin qu’elles ne servent pas de caisse de résonances aux propos haineux.
La mort en direct. C’est le spectacle nauséeux que des centaines de milliers de personnes ont partagé sur Internet, le 15 mars. Le terroriste d’extrême droite Brenton Tarrant, qui a massacré 50 personnes dans deux mosquées de Christchurch, en Nouvelle-Zélande, avait en effet pris la cynique initiative de filmer et de diffuser en temps réel son acte sur Facebook pour lui donner encore plus de résonance.
Le réseau social a mis près d’une demi-heure pour réagir, le temps qu’un premier internaute signale le contenu de la vidéo. Trop tard. Grâce à la viralité du Web, l’ignominie s’est répandue comme une traînée de poudre après avoir été partagée sur Facebook, YouTube et différentes plates-formes alternatives.
Ce scandale montre les limites du contrôle des contenus diffusés par les réseaux sociaux et les plates-formes de partage de vidéos. Le groupe de Mark Zuckerberg affirme avoir supprimé 1,5 million de copies de la vidéo de l’attaque, dont 1,2 million avant le chargement sur la plate-forme. Nécessaire, mais pas suffisant. Outre les centaines de milliers qui ont été effectivement visionnées, des sites de téléchargement à la réputation plus ou moins recommandable ont eu tout le loisir de dupliquer et de partager le contenu incriminé.
Le problème ne se limite pas à l’incitation à un voyeurisme extrêmement malsain. Il participe d’un prosélytisme des plus dangereux. Quelques heures seulement après la tuerie, sympathisants de l’alt-right américains, néonazis et extrémistes de droite partageaient massivement la vidéo pour célébrer leur nouveau « héros », certains appelant à s’inspirer de son acte.
Eradiquer l’écosystème extrémiste
Sous le couvert du respect de la liberté d’expression, principe fondateur du Web et valeur cardinale aux Etats-Unis, d’où sont issues la plupart de ces grandes plates-formes, celles-ci contribuent, à leur corps défendant, à la diffusion des discours de haine.
Après des années d’irresponsabilité, les géants de l’Internet se sont attelés au renforcement de la modération avec plus ou moins de succès. Le filtrage automatique pour lutter contre la pédophilie en ligne fonctionne globalement bien. Depuis 2016, ce procédé a été adapté aux contenus terroristes. Le drame de Christchurch montre qu’on est encore loin du compte.
La difficulté est que cette dérive est intrinsèque du fonctionnement de ces grandes plates-formes. Il s’agit de faire appel à l’émotion, à l’indignation permanente pour augmenter sa visibilité, susciter le plus de réactions possible, pour le meilleur, mais trop souvent pour le pire. Les communautés, organisées en silo, deviennent le royaume de l’entre-soi, ce qui incite à échanger avec ceux qui vous ressemblent et finit par lever les inhibitions en encourageant une parole libérée de toute contradiction. Force est de constater que ces outils de viralité sont plus efficaces pour diffuser les idées extrémistes que les positions modérées.
Il sera très compliqué d’éradiquer l’écosystème extrémiste en ligne qui prospère sur les forums ou les messageries cryptées où islamistes radicaux et militants d’extrême droite ont tout loisir de disséminer leur paranoïa mortifère au nom d’un choc des civilisations. L’urgence consiste à empêcher que les grandes plates-formes ne leur servent de caisse de résonance. Celles-ci doivent consacrer leur puissance technologique à endiguer le phénomène. Quant aux dirigeants politiques, ils doivent les responsabiliser au travers d’une législation suffisamment dissuasive pour qu’un drame comme Christchurch ne soit jamais plus utilisé ni instrumentalisé.
This post appeared on the front page as a direct link to the original article with the above link
.