Freedom of expression and the responsibility of the Facebooks (Metas) and X’s of the world regarding the misinformation they allow to flourish on their platforms will play out before the United States Supreme Court.
When you consider the most important legal matters of 2024, those involving Donald Trump naturally come to mind. Will the former president be convicted before the November election? Will he be the first president officially recognized by the courts as a criminal?
These are weighty questions, but the fact remains they could actually have less impact than a more obscure case the Supreme Court is hearing this week.
In Murthy v. Missouri, the court must determine what the government can and cannot do in combating misinformation on social platforms. Five social media users in two states—Missouri and Louisiana—have alleged that some of their posts were removed following pressure from federal authorities.
The First Amendment expressly provides that the government cannot make any law that abridges the freedom of speech.*
A social network, which is a private company, may choose not to publish certain language. But if the government forces a company to delete or monitor the very same language that is considered censorship, which the government may not do.
The question before the court is whether Joe Biden administration in its early days, crossed the line into censorship when it pressured social platforms like Facebook and X (formerly known as Twitter) to delete certain messages posted by users about the presidential election and the COVID-19 pandemic—messages that, according to the administration, constituted misinformation.
This case is undoubtedly the most consequential of those before the high court this term which ends in June, as its decision will set the parameters for nothing less than public debate in the United States.
Between Combating Misinformation and Censorship
One of the most regrettable aspects of hyperpolarized public debate, notably on social media, is the artificial opposition that two sides create when they are not actually that far apart.
On the one hand, misinformation is a real problem on social platforms. Conspiracy theories can spread like wildfire despite the fact they are objectively false—for example, the recent and absurd notion of a vast conspiracy theory between the White House, Biden’s election campaign, the National Football League and Taylor Swift.
On the other hand, many of the views and messages the government once considered “misinformation” and, in recent years, were often removed from social networks were either legitimate political opinions or information that was likely true—for example, the possibility that the virus responsible for the pandemic was created in a lab and escaped by accident.
So, which is the greater risk and the greater harm: allowing the dissemination of false information, or suppressing what is true?
In principle, the less free rein government has to filter content on social platforms, the greater the risk of misinformation; the more free rein the government has, the greater the risk of missing out on valuable information and perspective.
The Evolution of Content Moderation
The history of content moderation on the internet is as little known as it is fascinating. Just over a decade ago, the U.S. viewed a “free” internet in a positive light.
In the context of the 2011 Arab Spring, the U.S. considered the Web, and networks like Facebook to be extraordinary and unprecedented tools that citizens of authoritarian countries could use to mobilize against existing regimes (regimes often opposed to the U.S.). Restricting speech on the internet was synonymous with autocracy; not doing so, with democracy.
Ironically, just a few years later in the same region, the rise of the Islamic State exploited the internet as a tool for propaganda and recruitment and led the U.S. to pressure social networks to increasingly control what they posted on their platforms.
Once the government invoked national security combat external threats like the Islamic State, the next logical step was to apply that pressure to fight domestic threats like questioning the American electoral system.
Over time, the links between the U.S. national security apparatus and social media platforms became such that there were direct, secret communication channels between the FBI and what was Twitter’s senior management.
However, the question remains: Where, exactly, is the line between government-authorized communications and a social network platform, and coercion that amounts to censorship? That is what the Supreme Court must establish.
The Fundamental Problem
If the matter seems particularly thorny—and vague—it’s because social media platforms enjoy all the advantages of traditional media, including the freedom to exercise editorial discretion in filtering user content without being subject to federal law (including law that governs defamation or hate speech, for example).
During oral arguments before the court on Monday, Justice Ketanji Brown Jackson, a Biden nominee, posed an interesting question: What should the government do if social media users post messages daring children to jump from a window?
If this question comes up, it is precisely due to the preferential treatment that all administrations have afforded the web giants since their inception—because if people made similar remarks on a traditional media outlet and children died jumping into the void, these outlets would face lawsuits. A 1996 law protects social networks from such liability.
When the internet emerged on a major commercial scale in the 1990s, the government frowned upon the idea of regulating it for fear of nipping a promising industry in the bud.
That can has been kicked down the road, and the issue now seems impossible to resolve successfully. The Supreme Court decision will not resolve the fundamental issue of establishing once and for all whether social networks are platforms OR media. For this, we would need to have the political will to effectively confront these giants—a will that doesn’t exist at the moment.
*Editor’s note: The First Amendment provides: “Congress shall make no law respecting an establishment of religion, or prohibiting the free exercise thereof; or abridging the freedom of speech nor of the press; or the right of the people peaceably to assemble and to petition the Government for a redress of grievances.”
La cause judiciaire la plus cruciale de 2024
La liberté d’expression et la responsabilité des Facebook (Meta) et X de ce monde à l’égard de la désinformation qu’elles laissent prospérer sur leurs plateformes se joueront devant la Cour suprême des États-Unis.
Lorsqu’on pense aux affaires judiciaires les plus importantes de 2024, celles impliquant Donald Trump nous viennent naturellement en tête. L’ex-président sera-t-il déclaré coupable avant l’élection de novembre ? Aura-t-on un premier président officiellement reconnu par la justice comme un criminel ?
Ce sont là de lourdes questions. Reste qu’elles pourraient avoir dans les faits moins de portée qu’un dossier nettement moins médiatisé sur lequel la Cour suprême se penche cette semaine.
Dans Murthy c. Missouri, la Cour doit déterminer ce que le gouvernement a le droit de faire — et ce qu’il ne peut pas faire — au nom de la lutte contre la désinformation sur les réseaux sociaux. Cinq utilisateurs de réseaux sociaux et deux États — le Missouri et la Louisiane — se plaignent que le retrait de certaines de leurs publications sur des plateformes sociales a eu lieu à la suite de pressions d’autorités du gouvernement fédéral.
Selon le premier amendement de la Constitution américaine garantissant le droit à la liberté d’expression, il est explicitement interdit à l’État de limiter la liberté de parole.
Qu’un réseau social (une entreprise privée) choisisse de ne pas publier tel ou tel propos est permis ; mais que le gouvernement lui force la main pour qu’il supprime ou contrôle ces mêmes propos constitue de la censure. C’est la censure qui est interdite.
La question devant la Cour est de savoir si l’administration Biden, dans ses premiers mois en fonction, a franchi la ligne de la censure en faisant pression sur des réseaux comme Facebook et X (Twitter) pour qu’ils éliminent certains messages publiés par leurs utilisateurs sur des sujets comme l’élection présidentielle et la pandémie de COVID–19, messages qui, selon l’administration, constituaient de la désinformation.
Cette cause est sans doute la plus lourde de conséquences parmi celles sur lesquelles le plus haut tribunal du pays sera appelé à se prononcer d’ici la fin de son mandat annuel, en juin. Car cette décision fixera les paramètres du débat public aux États-Unis — rien de moins.
Entre lutte contre la désinformation et censure
Un des aspects les plus regrettables de l’hyperpolarisation du débat public, notamment sur les réseaux sociaux, est l’opposition artificielle fréquemment créée entre deux positions qui ne sont, dans les faits, pas si éloignées l’une de l’autre.
D’une part, la désinformation est un problème réel sur les réseaux sociaux. Certaines théories du complot se répandent comme une traînée de poudre alors qu’elles sont objectivement fausses — par exemple, tout récemment, cette idée absurde selon laquelle il y aurait une vaste conspiration entre la Maison-Blanche, la campagne de réélection de Joe Biden, la NFL et la chanteuse Taylor Swift.
Par contre, plusieurs des idées et des messages considérés à l’origine comme de la « désinformation » par des autorités gouvernementales et souvent supprimés des réseaux sociaux au cours des dernières années étaient soit des opinions politiques légitimes, soit des informations probablement vraies — par exemple, la possibilité que le virus à l’origine de la pandémie ait été créé en laboratoire et se soit échappé par accident.
Quels sont donc le plus grand risque et le plus grand mal : permettre la dissémination de fausses informations ou alors supprimer de vraies informations ?
En principe, moins on donnera les coudées franches au gouvernement pour filtrer le contenu des réseaux sociaux, plus le risque de désinformation augmentera ; et plus on lui donnera les coudées franches, plus le risque de se priver de certaines informations et opinions valables s’accroîtra.
L’évolution du contrôle du contenu
L’histoire de la « modération de contenu » sur Internet est aussi méconnue que fascinante. Il y a à peine un peu plus d’une décennie, un Internet « libre » était vu de façon positive par le gouvernement américain.
Dans le contexte du printemps arabe, en 2011, le Web et les réseaux comme Facebook étaient considérés comme des outils extraordinaires et inédits permettant aux citoyens de pays autoritaires de se mobiliser contre les régimes en place (des régimes par ailleurs souvent opposés aux États-Unis). Restreindre la parole sur Internet était synonyme d’autocratie ; ne pas la restreindre était associé à la démocratie.
À peine quelques années plus tard, dans la même région du monde (cruelle ironie), la montée du groupe État islamique, qui exploitait Internet à des fins de propagande et de recrutement, a mené au début des pressions du gouvernement américain sur les réseaux sociaux pour qu’ils contrôlent de plus en plus ce qui est diffusé sur leurs plateformes.
Une fois la sécurité nationale invoquée pour lutter contre des menaces externes telles que Daech, la prochaine étape logique était de s’en servir comme argument pour lutter contre des menaces internes comme la remise en question du système électoral américain.
Et, au fil des années, les liens entre l’appareil américain de sécurité nationale et les réseaux sociaux sont devenus tels qu’il existait des canaux de communication directs et secrets entre le FBI et la haute direction de Twitter.
Or, la question demeure : où, exactement, se situe la ligne entre des communications autorisées entre l’État et un réseau social et des tentatives de coercition tombant dans la censure ? C’est ce que la Cour doit établir.
Le problème de fond
Si le dossier semble aussi épineux, si un tel flou règne, c’est que les réseaux sociaux jouissent des avantages des médias traditionnels (la liberté d’exercer une discrétion éditoriale en filtrant le contenu de leurs utilisateurs) sans avoir à en porter la responsabilité juridique (relativement aux lois contre la diffamation ou les propos haineux, par exemple).
Lors de la présentation de la cause devant la Cour lundi, la juge Ketanji Brown Jackson, nommée par le président Biden, a posé une question intéressante : que devrait faire le gouvernement si des utilisateurs des réseaux sociaux publiaient des messages mettant des enfants au défi de se lancer par la fenêtre d’un immeuble ?
Or, si la question se pose, c’est précisément en raison de ce traitement de faveur que toutes les administrations ont réservé aux géants du Web depuis leur naissance. Car si de tels propos étaient tenus dans des médias traditionnels et que des enfants mouraient en se jetant dans le vide, ces médias se feraient poursuivre. Les réseaux sociaux, eux, sont de facto protégés de toute poursuite de ce genre par une loi adoptée en 1996.
Lorsque Internet est apparu sur une base commerciale importante dans les années 1990, le gouvernement américain a vu d’un mauvais œil l’idée de trop l’encadrer, de peur de tuer dans l’œuf une industrie prometteuse.
Le problème aura été pelleté par en avant — et semble aujourd’hui impossible à résoudre de façon satisfaisante. Le jugement de la Cour suprême ne réglera pas la question de fond, soit établir une fois pour toutes si les réseaux sociaux sont des plateformes OU des médias. Pour ce faire, il faudrait une volonté politique de réellement affronter ces géants. Et cette volonté n’existe actuellement pas.
This post appeared on the front page as a direct link to the original article with the above link
.