Opinión Bolivia

  • Diario Digital | martes, 26 de septiembre de 2023
  • Actualizado 00:11

INVESTIGACIÓN

Estudio: Los esfuerzos de Facebook por eliminar contenido antivacunas no funcionaron

En un comunicado, una de las investigadoras, Lorien Abroms, explicó que sus resultados demuestran lo difícil que es eliminar la desinformación sobre temas de salud de los espacios públicos.
 
Letrero de la empresa Meta, a la cual pertenece Facebook./ EFE
Letrero de la empresa Meta, a la cual pertenece Facebook./ EFE
Estudio: Los esfuerzos de Facebook por eliminar contenido antivacunas no funcionaron
Los esfuerzos de la red social Facebook por eliminar contenido antivacunas de su plataforma durante los peores meses de la pandemia de la covid-19 no sirvieron para reducir la exposición de sus usuarios a este tipo de publicaciones, según un estudio publicado este viernes en la revista Science Advances.

Investigadores de la Universidad George Washington, en Washington D.C., descargaron datos públicos de la plataforma de diferentes fechas (antes de que comenzara la política de eliminación de información falsa sobre las vacunas, en diciembre 2020, y después), y vieron que el nivel de interacción de los usuarios con este tipo de publicaciones no solo no se redujo, sino que en algunos casos aumentó.

En un comunicado, una de las investigadoras, Lorien Abroms, explicó que sus resultados demuestran lo difícil que es eliminar la desinformación sobre temas de salud de los espacios públicos.

Su principal hipótesis es que fue la propia arquitectura de Facebook, y en concreto sus sistemas diseñados para impulsar la creación de grupos y compartir información, lo que provocó ese aumento de las interacciones con contenido antivacunas, pese a los esfuerzos de la plataforma por eliminarlo.

"Los individuos que tienen una alta motivación para encontrar y compartir contenido antivacunas simplemente están utilizando el sistema de la forma en que está diseñado", dijo en el comunicado David Broniatowski, el autor principal del estudio.

Su conclusión es que eliminar contenido o cambiar los algoritmos no sirve si no se modifica el objetivo principal de las plataformas, que es la conexión de diferentes personas que comparten intereses comunes, en este caso, el miedo a las vacunas.

Los investigadores enfatizaron que se trata del primer estudio científico que se fija en la eficacia de los esfuerzos de Facebook para eliminar desinformación de su plataforma.

Según la universidad, los hallazgos sugieren que las empresas de redes sociales pueden mitigar estos efectos dañinos colaborando unas con otras para crear "códigos de construcción" de sus aplicaciones, informados por la ciencia, de la misma forma que los arquitectos tienen que asegurar la seguridad de sus edificios incorporando ventilación, salidas de emergencia y otras medidas.