01.02.2021 Views

DESINFORMACION Y CORONAVIRUS_compressed

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.


DESINFORMACIÓN Y CORONAVIRUS

Preparado por

Nelson Prato Barbosa

Asesor

"No sólo luchamos contra una epidemia, sino también

contra una infodemia".

Las noticias falsas "se propagan más rápido y más

fácilmente que el virus".

Tedros Adhanom Ghebreyesus

Director General de la Organización Mundial de la Salud

La Organización Mundial de la Salud (OMS) lleva tiempo usando la palabra "infodemia"

para referirse a la sobreabundancia informativa falsa y a su rápida propagación entre las

personas y los medios que afecta el bienestar emocional de las personas.

Hay que distinguir entre "fake news" y "false news". Detrás de las fake news hay una

finalidad política, una intención de provocar un daño mediante una operación política. Las

false news (noticias falsas), en cambio, surgen de la necesidad de llenar vacíos de

información incompleta mediante prejuicios que son coherentes con las creencias y la

idiosincrasia que dominan la llamada opinión pública.

Facebook, Google, Yahoo, Pinterest, Twitter, TikTok y YouTube, entre otros se dedican a

difundir, noticas, testimonios, etc. sobre el coronavirus, como por ejemplo, que el virus no

sobrevive en climas cálidos, que la administración de medicamentos con altas dosis de

cloroquina o el consumo de grandes cantidades de jengibre y ajo protegen contra la

infección.

2


Al respecto, ha habido una gran oleada de actividad de “bots” 1 en Twitter desde el

comienzo de la pandemia de COVID-19, amplificando la desinformación médica y el

impulso para terminar con la cuarentena o el confinamiento.

De acuerdo con un informe presentado por Kathleen M. Carley y su equipo del Centro para

la Democracia Informada y la Ciberseguridad Social de la Universidad Carnegie Mellon,

en EE.UU., han estado rastreando los bots y las campañas de influencia desde hace un

tiempo. Por ejemplo, durante las elecciones estadounidenses y en el extranjero, sobre

desastres naturales y otros eventos que han sido politizados. De acuerdo con estos estudios,

existe un nivel de participación de los bots de manera “normal”, entre 10 y 20%.

Pero en un nuevo estudio vinculado con el coronavirus, los investigadores descubrieron que

los bots pueden estar representando entre el 45 y el 60% de las cuentas de Twitter que se

refieren al COVID-19. Muchas de esas cuentas se crearon en febrero y desde entonces se

han difundido y amplificado la información errónea, incluidos los consejos médicos falsos,

las teorías de conspiración sobre el origen del virus y los esfuerzos para poner fin a las

órdenes de quedarse en casa y terminar la cuarentena en Estados Unidos. Siguen patrones

muy usados de campañas de influencia coordinadas, y su estrategia está funcionando desde

el comienzo de la crisis. Los investigadores han podido observar una mayor polarización en

el discurso de Twitter sobre el tema.

Varios factores podrían explicar este aumento. La naturaleza global de la pandemia

significa que una gran cantidad de actores están motivados para capitalizar la crisis como

una forma de cumplir con sus agendas políticas. La desinformación ahora también está más

coordinada en general, con más empresas disponibles para contratar para crear tales

campañas de influencia.

Pero no es solo el volumen de cuentas lo que preocupa a Carley, el director del centro. Sus

patrones de comportamiento también se han vuelto más sofisticados. Los bots ahora están

más conectados en red con otras cuentas, lo que les facilita difundir sus mensajes

ampliamente. También se involucran en más estrategias para apuntar a grupos en riesgo

como inmigrantes y minorías y ayudan a cuentas reales involucradas en discursos de odio

para formar grupos en línea.

Para realizar su análisis más reciente, los investigadores estudiaron más de 200 millones de

tweets sobre coronavirus o COVID-19 desde enero. Utilizaron técnicas de análisis de redes

y aprendizaje automático para identificar qué cuentas estaban difundiendo desinformación

y cuáles probablemente eran bots o cyborgs (cuentas administradas conjuntamente por bots

y humanos).

1 Un bot (derivado de robot), es un programa informático que efectúa automáticamente tareas

repetitivas a través de Internet, imitando un procedimiento o comportamiento humano.

3


El sistema busca 16 maniobras diferentes que pueden realizar las cuentas de

desinformación, que incluyen "puentear" entre dos grupos (conectar dos comunidades en

línea), "respaldar" a un individuo (seguir la cuenta para aumentar el nivel de influencia

percibida de la persona) y "bombardeo" a un grupo o personas (acciones que llevan a una

comunidad o persona en línea a ser desmantelada).

A través del análisis, lograron identificar más de 100 tipos de historias de COVID-19

inexactas y descubrieron que los bots no solo estaban ganando atracción y acumulando

seguidores, sino que representaban el 82% de los 50 principales re-twitter, y más del 62%

de las cuentas de los 1.000 twitteros más influyentes. La influencia de cada cuenta se

calculó para reflejar el número de seguidores que alcanzó, así como el número de

seguidores que consiguieron sus seguidores.

Los investigadores han comenzado a analizar Facebook, Reddit y YouTube para

comprender cómo se propaga la desinformación entre plataformas. El trabajo aún está en

las primeras etapas, pero ya ha revelado algunos patrones inesperados. Por un lado, los

investigadores han encontrado que muchas historias de desinformación provienen de sitios

web o blogs regulares antes de ser recogidas en diferentes plataformas sociales y

amplificadas. Los diferentes tipos de historias también tienen diferentes patrones de

procedencia. Aquellos que afirman que el virus es una arma biológica, por ejemplo,

provienen principalmente de los llamados sitios de "noticias negras", páginas de noticias

falsas diseñadas para difundir la desinformación que a menudo se ejecutan fuera de los

Estados Unidos. Por el contrario, la retórica de "reabrir América" proviene principalmente

de blogs y páginas de Facebook en los Estados Unidos.

Los investigadores también encontraron que los usuarios de diferentes plataformas

responderán a dicho contenido de maneras muy diferentes. En la red social Reddit, por

ejemplo, los moderadores tienen más probabilidades de desacreditar y prohibir la

desinformación. Cuando una campaña coordinada en torno a la “reapertura de América”

apareció en Facebook, los usuarios de Reddit comenzaron a discutir el fenómeno y a

contrarrestar los mensajes con menajes que decían: "No creas nada de eso. No puedes

confiar en Facebook”.

Desafortunadamente, no hay soluciones fáciles para este problema. Prohibir o eliminar

cuentas no funcionará, ya que se pueden aumentar más por cada una que se elimine.

Prohibir cuentas que difunden hechos inexactos tampoco resolverá nada. "Se realiza mucha

desinformación a través de insinuaciones o declaraciones ilógicas, y son difíciles de

descubrir", señala el estudio. De manera que, los investigadores, las corporaciones y el

gobierno deberían coordinarse mejor para elaborar políticas y prácticas efectivas para

reducir esto. "Creo que necesitamos algún tipo de grupo de supervisión general", "Porque

ningún grupo puede hacerlo solo".

4


Por eso, tal vez es hora de eliminar la idea de que alguna tendencia se "vuelve viral". Ya los

medios de comunicación están hablando menos sobre la viralidad existente en Internet

durante la pandemia, y cada vez hay mejores razones para reconsiderar la frase, que es más

producto de la manipulación tendenciosa que de la libertad de expresión.

5

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!