Facebook, la nave madre de Meta y gran flota de Mark Zuckerberg, contiene a más de 1.800 millones de personas que usan mensualmente los grupos, que permiten a sus miembros reunirse alrededor de todo tipo de temas.
Los críticos afirman que estos espacios de discusión son un "blanco fácil" para difundir información engañosa o falsa al tener enormes audiencias alineadas en torno a una idea o tema particular.
A raíz de esta situación, “los administradores de esos grupos pueden optar por la función de inteligencia artificial, que rechaza automáticamente publicaciones entrantes, determinadas como falsas por terceros verificadores” dijo María Smith, vicepresidenta de Comunidades de Facebook.
Los grupos fueron pensados como una manera más íntima de construir comunidades al brindar espacios para que los usuarios se conecten con sus pasatiempos e intereses. Sin embargo, las herramientas que brinda pueden generar mecánicas que al utilizarse de cierta forma por la comunidad, generen otras direcciones en la práctica.
En 2020, en una columna de opinión de Wired, las investigadoras Nina Jankowicz y Cindy Otis, destacaron que la investigación realizada "muestra que, esas mismas funcionalidades -privacidad y comunidad- son a menudo explotadas por actores nocivos, locales y extranjeros, para difundir informaciones falsas o conspiraciones”.
Facebook, mientras tanto, actualizó la herramienta de "suspender" que los administradores pueden usar para evitar que miembros seleccionados puedan publicar, comentar o participar en un grupo. Este proceso de ajuste en los sistemas de control de la información, es revisado exhaustivamente en las otras redes de Meta.
En el marco del programa de verificación de las plataformas de Facebook, WhatsApp e Instagram, iniciado en diciembre de 2016, la empresa de Zuckerberg paga, por usar verificaciones de su plataforma, a unas 80 organizaciones, incluyendo medios de comunicación y sitios de verificación especializados.|