15 de mar. (Dow Jones) -- Hace una década, durante la manifestación realizada a favor de la inmigración en la escalinata del edificio del Capitolio de Little Rock, Arkansas, la organizadora comunitaria Randi Romo vio a una mujer con un letrero que decía “ningún ser humano es ilegal”. Entonces tomó una fotografía y la envió a un grupo de activistas, que la subió al sitio de intercambio de fotos Flickr.

En agosto pasado, la misma imagen --alterada digitalmente para que el cartel leyera “dame más mierda gratis”-- apareció en la página de Facebook de Secured Borders, que exige la deportación de los inmigrantes indocumentados. La imagen recibió Me gustas o fue compartida cientos de veces, de acuerdo con las versiones ocultas de la página.

Este uso de imágenes alteradas fue una técnica crucial y engañosamente simple utilizada por la propaganda rusa para difundir información fabricada durante las elecciones de 2016, una que expuso una laguna en las defensas de las compañías tecnológicas. Facebook y Google de Alphabet tienen técnicas para detectar información errónea, pero tienen dificultades --en ese momento y ahora-- para identificar falsedades publicadas directamente en sus plataformas, en particular a través de imágenes.

Facebook reveló el otoño pasado que Secured Borders era una de las 290 páginas de Facebook e Instagram creadas y administradas por cuentas respaldadas por Rusia que trataron de amplificar los problemas sociales divisivos, incluida la inmigración.

La acusación del mes pasado presentada por el fiscal especial Robert Mueller citó la página Secured Borders como un ejemplo de cómo los rusos inventaron personas falsas en un esfuerzo por “sembrar discordia en el sistema político de Estados Unidos”.

De acuerdo con una revisión del diario The Wall Street Journal, las campañas conducidas por algunas de esas cuentas a menudo se basaron en imágenes que fueron adulteradas o sacadas de contexto.

Los algoritmos diseñados por las grandes compañías de tecnología están a años de poder interpretar con precisión el contenido de muchas imágenes y detectar indicios de que podrían haber sido distorsionadas o sacadas de contexto.

Facebook dijo que incluso la detección de contenidos basados en texto que violan sus estándares aún es demasiado difícil de automatizar exclusivamente.

Facebook y Google siguen dependiendo en gran medida de los usuarios para señalar publicaciones que contienen información potencialmente falsa. En febrero, por ejemplo, YouTube dijo que difundió erróneamente un video conspirativo que acusaba falsamente a un testigo adolescente de ser participante de la balacera acontecida en una escuela de Florida.

Los sistemas automatizados generalmente están configurados para suprimir los vínculos que llevan a artículos de noticias falsas. Las falsedades publicadas directamente, como las actualizaciones de estado, las imágenes y los videos, escapan al escrutinio. Además, las empresas generalmente son reacias a eliminar contenido que se dice que es falso, para evitar fungir como árbitro de la verdad.

Mientras tanto, es menos probable que los usuarios duden de la legitimidad de las imágenes, convirtiendo imágenes distorsionadas en armas inusualmente efectivas en campañas de desinformación, dijo Claire Wardle, investigadora y experta en medios sociales y contenido generado por los usuarios en Shorenstein Center de Harvard University.

La acusación del mes pasado describió cómo una organización rusa llamada Internet Research Agency publicó una guía para sus trabajadores sobre la proporción de textos en sus publicaciones y cómo usar gráficos y videos.

“Generé todas estas fotos y publicaciones, y los estadounidenses creyeron que fue escrito por su gente”, dijo uno de los conspiradores por correo electrónico a un pariente en septiembre, de acuerdo con la acusación.

Las entidades rusas a menudo colocaban pequeños íconos conocidos como marcas de agua en las esquinas de sus fotos adulteradas, que presentaban sus impostoras cuentas de los medios sociales y le daban un aire de autenticidad a las imágenes.

“En un mundo en el que estamos desplazándonos en estas pequeñas pantallas de teléfonos inteligentes, las imágenes son increíblemente poderosas porque es mucho menos probable que reparemos y pensemos: ‘¿parece esto real?’”, dijo la doctora Wardle, quien también lidera First Draft News, una organización sin fines de lucro dedicada a combatir la desinformación digital que colabora con compañías tecnológicas en algunos proyectos.

Facebook está trabajando para perfeccionar su plataforma y evitar una mayor manipulación antes de las elecciones legislativas de Estados Unidos de noviembre próximo, un esfuerzo que los líderes de Facebook han calificado como urgente. La compañía, junto con Google y Twitter, ha sido criticada por los legisladores y otros críticos por su manejo de la intromisión rusa en las elecciones presidenciales.

Traducido por Michelle del Campo  

Editado por Luis Felipe Cedillo

Copyright © 2017 Dow Jones & Company, Inc. All Rights Reserved

 


Fecha de publicación: 15/03/2018

Etiquetas: Facebook Medios Sociales Noticias Falsas Fake News Rusia Interferencia Elecciones Presidenciales EUA Censura Tecnología