The surprising triumph of Donald Trump in the North American elections sparked a series of criticisms from the media and news organizations about Facebook’s editorial responsibility. The social network is accused of having allowed, through its inactivity, the spread of false news. According to some analysts, and even according to President Obama, the repetition of these stories and the so-called “filter bubble” managed to confuse the electorate, making sure that Trump defeated Hillary Clinton. An article published in the prestigious Columbia Journalism Review maintains without doubt that the wave of false news stories contributed to Trump’s success. It quotes an analysis carried out by Craig Silverman, a specialist in verification techniques and editor of Buzzfeed, who studied content published during the presidential campaign by professional sources and supporters from the left and the right—Hillary and Trump—and demonstrated that, sure enough, false and malicious stories were published. However, the study does not prove that either the false or true stories had any real impact on the electoral decision of those people who were exposed to them.
Now the media is calling for Facebook to implement verification mechanisms and to differentiate the false news stories from the true. Seriously, do we want Facebook to be the arbitrator of truth? Mark Zuckerberg announced seven measures to facilitate the identification of false news and discourage its distribution. The first is that Facebook will implement technology to predict what news will be marked as false by users, even before they do it. It will also look to produce simple mechanisms so that users can tell Facebook that a news story is false. The idea is that its own community and the verification of independent information-checking bodies will alert them to the falsity of a news story, allowing them to stop its distribution or label it with a warning. Although it is not stated, surely Facebook’s algorithm will penalize those reported and reduce their reach.
The problem with these measures is that a politically active community would be able to denounce a true news story as false on Facebook because it is not beneficial to their interests. And a true report based on non-factual information—for example, a leak—would force independent verification bodies to characterize it as unsubstantiated information which would devalue it in the eyes of the public. In any case, the reader’s judgement will be affected by a new combination of uncertain values created by Facebook’s algorithms, partial action from the community and the judgement of independent verification bodies.
Why deploy so many control mechanisms to do something that both the credibility of newspaper brands and the reputation of the authors have done since the beginning of journalism? We believe or stop believing in something because of who said it. Credibility is a delicate asset, constructed over time in a complicated relationship between media brands and the audience. Therefore if The New York Times were to say that a squadron of UFOs flew over New York we would believe it, but if a blog dedicated to extraterrestrial life were to say the same we would not believe it. Clinton did not lose because of the influence of a handful of false news stories but because of something deeper that we have yet to understand.
The prayers asking for Facebook’s intervention in news content run the risk of being addressed. It would be something very bad for the press and for freedom. Facebook should stay neutral.
Mark, please, do not intervene.
Mark, por favor, no intervengas
Julián Gallo
PARA LA NACION
Julián Gallo
DOMINGO 11 DE DICIEMBRE DE 2016
El sorprendente triunfo de Donald Trump en las elecciones norteamericanas desató una serie de críticas por parte de los medios y organizaciones periodísticas sobre la responsabilidad editorial de Facebook. Se acusa a la red social de haber permitido con su inacción que en su plataforma se distribuyeran noticias falsas que, según algunos analistas e incluso según el presidente Obama, lograron con su repetición y por la llamada "burbuja de filtros" confundir a los electores haciendo que Trump se impusiera a Hillary Clinton. Un artículo publicado en el prestigioso Columbia Journalism Review (CJR) sostiene sin dudar que la ola de noticias falsas contribuyó al éxito de Trump. Se cita un análisis realizado por Craig Silverman, especialista en técnicas de verificación y editor de Buzzfeed, que estudió los contenidos publicados durante la campaña presidencial de fuentes profesionales y partidarios de izquierda y derecha (Hillary y Trump) y demostró que, en efecto, se publicaron noticias falsas y maliciosas. Pero el estudio no prueba que esas noticias falsas ni las verdaderas tuvieran influencia real en la decisión electoral de las personas que estuvieron expuestas a ellas.
Ahora los medios claman por que Facebook implemente mecanismos de verificación y discrimine las noticias falsas de las verdaderas. ¿En serio queremos que Facebook sea el árbitro de la verdad? Mark Zuckerberg anunció siete medidas facilitar la identificación de noticias falsas y desalentar su distribución. La primera es que Facebook dispondrá de tecnologías para detectar de manera predictiva qué noticias serán marcadas como falsas por los usuarios, incluso antes de que lo hagan. También buscará producir mecanismos sencillos para que los usuarios puedan avisar (a Facebook) que una noticia es falsa. La idea es que la propia comunidad y la verificación de organismos independendientes de chequeo de información alertarán sobre la falsedad de una noticia permitiendo frenar su distribución o etiquetarla con una advertencia. Aunque no está dicho, seguramente el algoritmo de Facebook penalizará a las notas denunciadas y reducirá su alcance.
El problema de estas medidas es que una comunidad militante podría denunciar en Facebook a una noticia verdadera como falsa por no ser beneficiosa para sus intereses. Y un informe verdadero basado en información no factual (por ejemplo, en una filtración) obligaría a organismos de verificación independientes a calificarlo como información no demostrada, lo que le restaría valor frente a la opinión pública. En cualquier caso, el juicio del lector estará afectado por una nueva combinación de valores dudosos creados por los algoritmos de Facebook, la acción no neutral de la comunidad y el juicio de organismos externos de verificación.
¿Por qué desplegar tantos mecanismos de control para hacer algo que la credibilidad de las marcas periodísticas y la reputación de los autores hace desde el principio del periodismo? Creemos o dejamos de creer en algo por quién lo dice. La credibilidad es un activo delicado construido en una relación desarrollada en el tiempo entre las marcas de medios y la audiencia. Por eso si The New York Times dijera que un escuadrón de OVNI sobrevoló Nueva York le creeríamos, pero si un blog dedicado a la vida extraterrestre dijera lo mismo, no lo haríamos. Clinton no perdió por la influencia de un puñado de noticias falsas, sinó por algo mucho más profundo que aún no logramos entender.
Las plegarias pidiendo la intervención de Facebook en el contenido noticioso corren el riesgo de ser atendidas. Sería algo muy malo para la prensa y para la libertad. Facebook debe mantenerse neutral.
Mark, por favor, no intervengas.
This post appeared on the front page as a direct link to the original article with the above link
.
These costly U.S. attacks failed to achieve their goals, but were conducted in order to inflict a blow against Yemen, for daring to challenge the Israelis.
These costly U.S. attacks failed to achieve their goals, but were conducted in order to inflict a blow against Yemen, for daring to challenge the Israelis.