Mark, Please Do Not Intervene

<--

Mark, por favor, no intervengas

Julián Gallo

PARA LA NACION

Julián Gallo

DOMINGO 11 DE DICIEMBRE DE 2016

El sorprendente triunfo de Donald Trump en las elecciones norteamericanas desató una serie de críticas por parte de los medios y organizaciones periodísticas sobre la responsabilidad editorial de Facebook. Se acusa a la red social de haber permitido con su inacción que en su plataforma se distribuyeran noticias falsas que, según algunos analistas e incluso según el presidente Obama, lograron con su repetición y por la llamada “burbuja de filtros” confundir a los electores haciendo que Trump se impusiera a Hillary Clinton. Un artículo publicado en el prestigioso Columbia Journalism Review (CJR) sostiene sin dudar que la ola de noticias falsas contribuyó al éxito de Trump. Se cita un análisis realizado por Craig Silverman, especialista en técnicas de verificación y editor de Buzzfeed, que estudió los contenidos publicados durante la campaña presidencial de fuentes profesionales y partidarios de izquierda y derecha (Hillary y Trump) y demostró que, en efecto, se publicaron noticias falsas y maliciosas. Pero el estudio no prueba que esas noticias falsas ni las verdaderas tuvieran influencia real en la decisión electoral de las personas que estuvieron expuestas a ellas.

Ahora los medios claman por que Facebook implemente mecanismos de verificación y discrimine las noticias falsas de las verdaderas. ¿En serio queremos que Facebook sea el árbitro de la verdad? Mark Zuckerberg anunció siete medidas facilitar la identificación de noticias falsas y desalentar su distribución. La primera es que Facebook dispondrá de tecnologías para detectar de manera predictiva qué noticias serán marcadas como falsas por los usuarios, incluso antes de que lo hagan. También buscará producir mecanismos sencillos para que los usuarios puedan avisar (a Facebook) que una noticia es falsa. La idea es que la propia comunidad y la verificación de organismos independendientes de chequeo de información alertarán sobre la falsedad de una noticia permitiendo frenar su distribución o etiquetarla con una advertencia. Aunque no está dicho, seguramente el algoritmo de Facebook penalizará a las notas denunciadas y reducirá su alcance.

El problema de estas medidas es que una comunidad militante podría denunciar en Facebook a una noticia verdadera como falsa por no ser beneficiosa para sus intereses. Y un informe verdadero basado en información no factual (por ejemplo, en una filtración) obligaría a organismos de verificación independientes a calificarlo como información no demostrada, lo que le restaría valor frente a la opinión pública. En cualquier caso, el juicio del lector estará afectado por una nueva combinación de valores dudosos creados por los algoritmos de Facebook, la acción no neutral de la comunidad y el juicio de organismos externos de verificación.

¿Por qué desplegar tantos mecanismos de control para hacer algo que la credibilidad de las marcas periodísticas y la reputación de los autores hace desde el principio del periodismo? Creemos o dejamos de creer en algo por quién lo dice. La credibilidad es un activo delicado construido en una relación desarrollada en el tiempo entre las marcas de medios y la audiencia. Por eso si The New York Times dijera que un escuadrón de OVNI sobrevoló Nueva York le creeríamos, pero si un blog dedicado a la vida extraterrestre dijera lo mismo, no lo haríamos. Clinton no perdió por la influencia de un puñado de noticias falsas, sinó por algo mucho más profundo que aún no logramos entender.

Las plegarias pidiendo la intervención de Facebook en el contenido noticioso corren el riesgo de ser atendidas. Sería algo muy malo para la prensa y para la libertad. Facebook debe mantenerse neutral.

Mark, por favor, no intervengas.

About this publication