¿Qué hace que las 'fake news' parezcan tan creíbles?
Una investigación de MIT encontró que “la información falsa en redes sociales llega significativamente más lejos, se mueve más rápido, penetra de forma más profunda y su alcance es mayor que la verídica”.
Cada día, las plataformas de internet se inundan con una cantidad desmesurada de noticias y contenidos que compiten por captar la atención de la audiencia. La cuota interminable de información que está disponible instantáneamente, como artículos de noticias, clips de video, fotos u otros medios en sitios web de noticias, redes sociales, televisión, radio y otras fuentes puede, y suele, ser abrumadora.
Un grupo de expertos informáticos de ESET analizaron los problemas para lidiar con la sobrecarga de información que llega desde el mundo digital para encontrar mejores herramientas para discernir entre lo que es real y lo que es ficción.
Últimamente, gran parte del ciclo de noticias a nivel global se ha centrado en la guerra en Ucrania, comenzó con imágenes satelitales de movimientos del ejército alertando del riesgo de una posible invasión rusa.
Luego, comenzaron a llegar imágenes desde Ucrania a medida que los ciudadanos se dirigían a las redes sociales para publicar videos y fotos de tanques en las calles y misiles que caían del cielo, dejando destrucción a su paso.
Desde entonces, se vio la guerra a través de los teléfonos a un nivel de detalle nunca antes visto, razón por la cual este conflicto ha sido apopado por muchos como la “primera guerra TikTok”.
Plataformas como TikTok, Twitter e Instagram pasaron de mostrar videos de baile a utilizarse para difundir escenas de guerra y llamados para obtener apoyo humanitario, algo que atrajo innumerables opiniones y acciones en el proceso. No obstante, las partes involucradas ahora tienen acceso a estas plataformas, lo que derivó en que las mismas se convirtieran en un campo de batalla digital para tratar de influir a millones de personas en el mundo a su favor.
Según una investigación del Massachusetts Institute of Technology (MIT) publicada en 2018, que analizó las noticias compartidas en Twitter, “la información falsa llega significativamente más lejos, se mueve más rápido, penetra de forma más profunda y su alcance es mayor que la verídica”, incluso cuando existen esfuerzos para eliminar los bots y filtrar las interacciones para priorizar solo las humanas y las reales. Los resultados son sorprendentes, hasta el punto de que, tal y como señala el estudio, “la información falsa tiene un 70% más de probabilidades de ser retuiteada que la verdadera”.
El problema subyacente puede ser el sesgo cognitivo. Para los expertos, “si bien permite recordar procesos previamente aprendidos y reconocer situaciones familiares, puede dejarnos susceptibles ante los atajos mentales y puntos ciegos”.
Los analistas consideran que una conversación entre dos personas de ambos lados de la guerra en Ucrania es un claro ejemplo: “Ambas partes creen que están actuando racionalmente y se acusan mutuamente de ser parciales y de no comprender las complejidades de la realidad. A partir de este punto, cada uno estará más abierto a consumir noticias que confirmen su perspectiva – incluso si la noticia es falsa. En línea se presenta una realidad filtrada, construida por un algoritmo que da forma a nuestra circunstancia virtual y nos alimenta con validación, sean cuales sean las ideas que tengamos”.
A deepfake video of Ukrainian President Volodymyr Zelenskyy is the first used in "an intentional and broadly deceptive way" since Russia's invasion, expert says. #TheCube https://t.co/9D98WIUXep
— Euronews (@euronews) March 16, 2022
Supercontagiador
En 2018, cuando Heidi Larson, profesora de antropología de la London School of Hygiene and Tropical Medicine, escribió sobre difundir información errónea, utilizó el término: super-spreaders o supercontagiadores, comparable con la expansión de un virus, a quienes se encargan de difundir contenidos falsos.
Una imagen que explica cómo los trolls (una persona con identidad desconocida que publica mensajes provocadores, irrelevantes o fuera de tema en una comunidad en línea) en Internet “causan estragos publicando deliberadamente comentarios polémicos e incendiarios”. Pero, mientras algunos son solo personas aburridas usando el manto de invisibilidad que proporciona Internet, otros se dedican a ello como si fuese un trabajo, inflamando la opinión pública y perturbando los procesos sociales y políticos.
Dos investigadores de Oxford descubrieron varios ejemplos de cómo tanto el Gobierno como las empresas privadas administran “tropas cibernéticas organizadas”. Estos batallones de trolls y bots utilizan las redes sociales para moldear las mentes de las personas y amplificar “voces e ideas marginales al inflar el número de likes, compartidos y retweets”.
¿Cómo se puede discernir el contenido publicado en las plataformas online?
Facebook, Twitter, Telegram y YouTube han sido criticados por su forma de actuar ante el contenido engañoso. Ya han tenido que enfrentarse a gobiernos que solicitan más responsabilidad de su parte y que incluso han planteado la posibilidad de impulsar la regulación de estos servicios para la difusión de contenido prohibido con ideologías falsas y extremistas.
En enero de 2022, los sitios web de verificación de hechos de todo el mundo se dirigieron a YouTube con una carta abierta, alertando a la plataforma de video más grande del mundo sobre la necesidad de tomar medidas decisivas, principalmente “proporcionando contextos y ofreciendo rectificaciones”, en lugar de solamente eliminar el contenido engañoso. En la carta también se abordaba la necesidad de “actuar contra los reincidentes” y aplicar esos esfuerzos “en idiomas diferentes al inglés”.
Existen las plataformas de verificación de hechos, quienes investigan y evalúan la calidad de la información incluida en una noticia o en una publicación viral en las redes sociales. La mayoría de estos sitios genera un indicador (comparable con un barómetro) que categoriza los contenidos desde “falso” a “mayormente falso”, o “mayormente verdadero” y “verdadero”. Del mismo modo, la validez de esta investigación también puede ser desacreditada por aquellos que no ven sus ideas confirmadas. Aunque estos esfuerzos han logrado avanzar la lucha contra la desinformación, siguen enfrentándose a limitantes.
“La solución estaría en campañas educativas y el diálogo. Y, mientras algunos países tienen buenos resultados en alfabetización digital y educación, otros no. La disparidad es grande, pero todos convergen en el mismo espacio virtual compartido donde no todos quieren dialogar, escuchar o comprometerse realmente. No obstante, tenemos un papel que desempeñar cuando se trata de discernir lo real de lo falso, y en el contexto de una guerra, este trabajo individual adquiere una importancia aún mayor”, comentó André Lameiras, Security Writer de ESET.