DESINFORMACION Y CORONAVIRUS_compressed
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
DESINFORMACIÓN Y CORONAVIRUS
Preparado por
Nelson Prato Barbosa
Asesor
"No sólo luchamos contra una epidemia, sino también
contra una infodemia".
Las noticias falsas "se propagan más rápido y más
fácilmente que el virus".
Tedros Adhanom Ghebreyesus
Director General de la Organización Mundial de la Salud
La Organización Mundial de la Salud (OMS) lleva tiempo usando la palabra "infodemia"
para referirse a la sobreabundancia informativa falsa y a su rápida propagación entre las
personas y los medios que afecta el bienestar emocional de las personas.
Hay que distinguir entre "fake news" y "false news". Detrás de las fake news hay una
finalidad política, una intención de provocar un daño mediante una operación política. Las
false news (noticias falsas), en cambio, surgen de la necesidad de llenar vacíos de
información incompleta mediante prejuicios que son coherentes con las creencias y la
idiosincrasia que dominan la llamada opinión pública.
Facebook, Google, Yahoo, Pinterest, Twitter, TikTok y YouTube, entre otros se dedican a
difundir, noticas, testimonios, etc. sobre el coronavirus, como por ejemplo, que el virus no
sobrevive en climas cálidos, que la administración de medicamentos con altas dosis de
cloroquina o el consumo de grandes cantidades de jengibre y ajo protegen contra la
infección.
2
Al respecto, ha habido una gran oleada de actividad de “bots” 1 en Twitter desde el
comienzo de la pandemia de COVID-19, amplificando la desinformación médica y el
impulso para terminar con la cuarentena o el confinamiento.
De acuerdo con un informe presentado por Kathleen M. Carley y su equipo del Centro para
la Democracia Informada y la Ciberseguridad Social de la Universidad Carnegie Mellon,
en EE.UU., han estado rastreando los bots y las campañas de influencia desde hace un
tiempo. Por ejemplo, durante las elecciones estadounidenses y en el extranjero, sobre
desastres naturales y otros eventos que han sido politizados. De acuerdo con estos estudios,
existe un nivel de participación de los bots de manera “normal”, entre 10 y 20%.
Pero en un nuevo estudio vinculado con el coronavirus, los investigadores descubrieron que
los bots pueden estar representando entre el 45 y el 60% de las cuentas de Twitter que se
refieren al COVID-19. Muchas de esas cuentas se crearon en febrero y desde entonces se
han difundido y amplificado la información errónea, incluidos los consejos médicos falsos,
las teorías de conspiración sobre el origen del virus y los esfuerzos para poner fin a las
órdenes de quedarse en casa y terminar la cuarentena en Estados Unidos. Siguen patrones
muy usados de campañas de influencia coordinadas, y su estrategia está funcionando desde
el comienzo de la crisis. Los investigadores han podido observar una mayor polarización en
el discurso de Twitter sobre el tema.
Varios factores podrían explicar este aumento. La naturaleza global de la pandemia
significa que una gran cantidad de actores están motivados para capitalizar la crisis como
una forma de cumplir con sus agendas políticas. La desinformación ahora también está más
coordinada en general, con más empresas disponibles para contratar para crear tales
campañas de influencia.
Pero no es solo el volumen de cuentas lo que preocupa a Carley, el director del centro. Sus
patrones de comportamiento también se han vuelto más sofisticados. Los bots ahora están
más conectados en red con otras cuentas, lo que les facilita difundir sus mensajes
ampliamente. También se involucran en más estrategias para apuntar a grupos en riesgo
como inmigrantes y minorías y ayudan a cuentas reales involucradas en discursos de odio
para formar grupos en línea.
Para realizar su análisis más reciente, los investigadores estudiaron más de 200 millones de
tweets sobre coronavirus o COVID-19 desde enero. Utilizaron técnicas de análisis de redes
y aprendizaje automático para identificar qué cuentas estaban difundiendo desinformación
y cuáles probablemente eran bots o cyborgs (cuentas administradas conjuntamente por bots
y humanos).
1 Un bot (derivado de robot), es un programa informático que efectúa automáticamente tareas
repetitivas a través de Internet, imitando un procedimiento o comportamiento humano.
3
El sistema busca 16 maniobras diferentes que pueden realizar las cuentas de
desinformación, que incluyen "puentear" entre dos grupos (conectar dos comunidades en
línea), "respaldar" a un individuo (seguir la cuenta para aumentar el nivel de influencia
percibida de la persona) y "bombardeo" a un grupo o personas (acciones que llevan a una
comunidad o persona en línea a ser desmantelada).
A través del análisis, lograron identificar más de 100 tipos de historias de COVID-19
inexactas y descubrieron que los bots no solo estaban ganando atracción y acumulando
seguidores, sino que representaban el 82% de los 50 principales re-twitter, y más del 62%
de las cuentas de los 1.000 twitteros más influyentes. La influencia de cada cuenta se
calculó para reflejar el número de seguidores que alcanzó, así como el número de
seguidores que consiguieron sus seguidores.
Los investigadores han comenzado a analizar Facebook, Reddit y YouTube para
comprender cómo se propaga la desinformación entre plataformas. El trabajo aún está en
las primeras etapas, pero ya ha revelado algunos patrones inesperados. Por un lado, los
investigadores han encontrado que muchas historias de desinformación provienen de sitios
web o blogs regulares antes de ser recogidas en diferentes plataformas sociales y
amplificadas. Los diferentes tipos de historias también tienen diferentes patrones de
procedencia. Aquellos que afirman que el virus es una arma biológica, por ejemplo,
provienen principalmente de los llamados sitios de "noticias negras", páginas de noticias
falsas diseñadas para difundir la desinformación que a menudo se ejecutan fuera de los
Estados Unidos. Por el contrario, la retórica de "reabrir América" proviene principalmente
de blogs y páginas de Facebook en los Estados Unidos.
Los investigadores también encontraron que los usuarios de diferentes plataformas
responderán a dicho contenido de maneras muy diferentes. En la red social Reddit, por
ejemplo, los moderadores tienen más probabilidades de desacreditar y prohibir la
desinformación. Cuando una campaña coordinada en torno a la “reapertura de América”
apareció en Facebook, los usuarios de Reddit comenzaron a discutir el fenómeno y a
contrarrestar los mensajes con menajes que decían: "No creas nada de eso. No puedes
confiar en Facebook”.
Desafortunadamente, no hay soluciones fáciles para este problema. Prohibir o eliminar
cuentas no funcionará, ya que se pueden aumentar más por cada una que se elimine.
Prohibir cuentas que difunden hechos inexactos tampoco resolverá nada. "Se realiza mucha
desinformación a través de insinuaciones o declaraciones ilógicas, y son difíciles de
descubrir", señala el estudio. De manera que, los investigadores, las corporaciones y el
gobierno deberían coordinarse mejor para elaborar políticas y prácticas efectivas para
reducir esto. "Creo que necesitamos algún tipo de grupo de supervisión general", "Porque
ningún grupo puede hacerlo solo".
4
Por eso, tal vez es hora de eliminar la idea de que alguna tendencia se "vuelve viral". Ya los
medios de comunicación están hablando menos sobre la viralidad existente en Internet
durante la pandemia, y cada vez hay mejores razones para reconsiderar la frase, que es más
producto de la manipulación tendenciosa que de la libertad de expresión.
5