Más de una docena de denunciantes de TikTok y Meta han dado un paso al frente en un nuevo documental de la BBC para revelar cómo ambos gigantes de las redes sociales permitieron deliberadamente que contenido dañino proliferara en sus plataformas en busca de mayor interacción de usuarios y dominio del mercado.
Publicado
Presión interna para flexibilizar los estándares de seguridad
El documental «Inside the Rage Machine», que se estrenó en BBC Two el 16 de marzo, es el resultado de años de trabajo de investigación de Marianna Spring, corresponsal de investigación de redes sociales de la BBC. Se basa en testimonios de informantes internos y documentos corporativos para mostrar cómo el engagement impulsado por la indignación se convirtió en una estrategia comercial clave en ambas compañías.
Un ingeniero de Meta le dijo a la BBC que ejecutivos de alto nivel ordenaron a su equipo permitir más contenido «en el límite» potencialmente dañino —incluyendo comentarios misóginos y teorías de conspiración— en los feeds de los usuarios para competir mejor con TikTok. «Dieron a entender que esto se debía a la caída del precio de las acciones», dijo el ingeniero. Un exempleado senior de Meta describió cómo la compañía asignó recursos para 700 miembros del personal para mejorar Instagram Reels mientras negaba a los equipos de seguridad solo dos especialistas para proteger a los niños y diez para ayudar con la integridad electoral.
Matt Motyl, exinvestigador senior de Meta, compartió con la BBC una investigación interna que muestra que Instagram Reels, lanzado en 2020 sin las salvaguardas adecuadas, tenía comentarios con tasas de acoso y hostigamiento un 75% más altas, un 19% más de discurso de odio y un 7% más de violencia e incitación en comparación con el feed principal de Instagram.
TikTok priorizó a políticos por encima de menores de edad
En una medida poco habitual, un miembro del equipo de confianza y seguridad de TikTok, identificado como Nick, le dio a la BBC acceso al panel de quejas interno de la compañía. Los documentos mostraron que el personal recibía instrucciones de priorizar casos que involucraran a políticos por encima de reportes de contenido dañino que involucrara a menores de edad. Por ejemplo, una figura política ridiculizada al ser comparada con un pollo recibió mayor prioridad que una joven de 17 años reportando ciberacoso en Francia o un joven de 16 años en Iraq cuyas imágenes sexualizadas fueron compartidas en la plataforma.
Nick dijo que las decisiones se tomaban para «cultivar una conexión sólida» con figuras políticas para evitar posibles regulaciones o prohibiciones. Su consejo a los padres: «Bórrenla, mantengan a sus hijos alejados de la aplicación el mayor tiempo posible».
Ruofan Ding, un ex ingeniero de aprendizaje automático de TikTok, describió los algoritmos de recomendación de la plataforma como una «caja negra», diciendo: «Carecemos de control sobre el algoritmo de aprendizaje profundo en sí».
Las empresas se defienden
Ambas empresas rechazaron las acusaciones. Meta declaró: «Cualquier sugerencia de que amplificamos deliberadamente contenido dañino con fines de lucro es incorrecta». TikTok calificó las afirmaciones como «fabricadas» y dijo que el documental «tergiversa fundamentalmente el funcionamiento de sus sistemas de moderación», agregando que los casos de seguridad infantil son gestionados por equipos dedicados dentro de estructuras de revisión paralelas.
El documental llega en medio de un juicio histórico en curso en el que Meta enfrenta acusaciones de que sus plataformas están diseñadas intencionalmente para ser adictivas, con el CEO Mark Zuckerberg testificando en los tribunales por primera vez a principios de este mes.