La plataforma de redes sociales X (antes Twitter) tuvo un papel esencial en la propagación de narrativas falsas y contenido nocivo que contribuyó a la violencia racista contra comunidades musulmanas y migrantes en Reino Unido tras el trágico asesinato de tres niñas en la localidad de Southport; así lo demuestra Amnistía Internacional en un documento explicativo técnico que ha publicado hoy.
Según revela un análisis técnico del código abierto de X (software públicamente disponible), el sistema de recomendación (algoritmos de clasificación del contenido) que rige la página “For You” (Para ti) prioriza sistemáticamente el contenido que suscita indignación y provoca discusiones, reacciones y participaciones acaloradas, sin garantías adecuadas para prevenir o mitigar los daños.
Nuestro análisis demuestra que las decisiones sobre política y diseño algorítmico de X contribuyeron a un aumento del riesgo en plena oleada de casos de violencia contra personas musulmanas e inmigrantes registrados en varias localidades de Reino Unido en 2024, y hoy siguen representando un grave peligro para los derechos humanos.
Pat de Brún, responsable del área de Rendición de Cuentas de las Grandes Empresas Tecnológicas en Amnistía Internacional
El 29 de julio de 2024, tres niñas de corta edad —Alice da Silva Aguiar, Bebe King y Elsie Dot Stancombe— fueron asesinadas y otras 10 personas resultaron heridas a manos de Axel Rudakubana, de 17 años. Horas después del ataque, la desinformación y las falsedades sobre la identidad, religión y condición migratoria del perpetrador se extendieron por las plataformas de redes sociales, de manera prominente en X.
El análisis del algoritmo de recomendación de código abierto realizado por Amnistía Internacional revela opciones sistémicas de diseño que anteponen la participación conflictiva a la seguridad.
El sistema de clasificación algorítmica de X, revelado en el propio código fuente de X publicado en marzo de 2023, revela que las falsedades, con independencia de su lesividad, pueden priorizarse y aflorar con mayor rapidez que la información verificada. El modelo “heavy ranker” —sistema de aprendizaje automático que decide qué publicaciones se promocionan— prioriza la “conversación”, independientemente de la naturaleza del contenido. Mientras una publicación genere interacción, el algoritmo no parece tener ningún mecanismo para evaluar el potencial de causar daño, al menos no hasta que un número suficiente de usuarios lo denuncien. Estas características de diseño abonaron el terreno a las incendiarias narrativas racistas que prosperaron en X tras el ataque de Southport.
Un análisis más detallado del sistema reveló también sesgos de amplificación incorporados que favorecen a los suscriptores verificados “Premium” (antes «Blue»), cuyas publicaciones se promocionan automáticamente antes que las de usuarios corrientes. Antes de que las autoridades difundieran el relato oficial, empezaron a circular afirmaciones falsas y discursos islamófobos sobre los hechos en las redes sociales. Etiquetas como #Stabbing (Apuñalamiento) o #EnoughisEnough (Ya basta) también se utilizaron para difundir publicaciones que apuntaban falsamente a que el agresor era musulmán y/o solicitante de asilo.
La cuenta “Europe Invasion” de X, conocida por publicar contenido antiinmigrante e islamófobo, publicó que el sospechoso era “al parecer, inmigrante musulmán” al poco tiempo de conocerse la noticia del ataque. Esta publicación tuvo cuatro millones de visitas. Se comprobó que, a las 24 horas, todas las publicaciones en X en las que se especulaba sobre si el perpetrador era musulmán, refugiado o extranjero o si había llegado en barco tenían, según cálculos, 27 millones de impresiones.
La tragedia de Southport sucedió en el contexto de importantes cambios de política y personal en X. Desde que Elon Musk adquirió X a finales de 2022, la red social ha despedido al personal encargado de la moderación de contenidos, ha desarticulado el consejo consultivo de seguridad y confianza de Twitter, ha despedido al personal técnico responsable de seguridad y confianza, y ha restablecido numerosas cuentas que habían sido prohibidas por motivos de odio o acoso, entre ellas la de Stephen Yaxley-Lennon, activista de extrema derecha más conocido como Tommy Robinson.
Publicaciones incendiarias
Tommy Robinson contó a sus 840.000 seguidores en X que había “más pruebas de que el islam es una enfermedad mental que de que sea una religión de paz”, avivando aún más la hostilidad contra la población musulmana.
El propietario de X, Elon Musk, con 140 millones de seguidores en su cuenta personal de X, también amplificó notablemente las falsas narrativas publicadas sobre el ataque de Southport. El 5 de agosto de 2024, mientras se extendían los disturbios, comentó sobre un vídeo publicado por Ashley St Clair: “la guerra civil es inevitable”.
El primer ministro británico, Keir Starmer, intervino para pedir la protección de las personas musulmanas en medio de oleadas de ataques de multitudes contra mezquitas, albergues y comunidades asiáticas, negras y musulmanas.
Elon Musk replicó públicamente: “¿No deberían preocuparle los ataques contra *todas* las comunidades?”
El análisis de Amnistía Internacional demuestra que, en las dos semanas siguientes al ataque de Southport, las publicaciones de Tommy Robinson en X registraron más de 580 millones de visitas, un alcance sin precedentes para una figura prohibida en la mayoría de las plataformas principales por incumplir las normas sobre discurso de odio.
Escribimos a X para comunicarle nuestras conclusiones en una carta fechada el 18 de julio de 2025 y dar a la empresa la oportunidad de responder. Pero en el momento de publicarse este documento no habíamos recibido respuesta.
Hora de rendir cuentas
El análisis de Amnistía Internacional sobre las decisiones de diseño y política de X suscita una profunda preocupación sobre cómo funciona el sistema de recomendación de la plataforma en situaciones de crisis. La forma en que el sistema evalúa, clasifica y potencia contenidos, en concreto las publicaciones que generan respuestas acaloradas o que han sido creadas o compartidas por cuentas “Blue” o “Premium”, puede dar lugar a la difusión de material nocivo a grandes audiencias.
Sin unas salvaguardias efectivas aumenta la probabilidad de que las publicaciones incendiarias u hostiles ganen impulso en momentos de mayor tensión social.
Pat de Brún
Si este contenido se refiere a grupos raciales, religiosos y otros que sufren marginación, puede generar un gran riesgo para los derechos humanos de quienes pertenecen a estos grupos. Que X no tome medidas para prevenir o mitigar debidamente estos riesgos previsibles significa que no respeta los derechos humanos.
Aunque hay marcos regulatorios como la Ley de Seguridad Digital británica y la Ley de Servicios Digitales de la UE que ya establecen la obligación jurídica de las plataformas de evaluar y mitigar algunos riesgos sistémicos, estas obligaciones deben hacerse cumplir enérgicamente para que surtan algún efecto. Las decisiones de diseño y prácticas opacas de X siguen entrañando riesgos para los derechos humanos que requieren, no sólo escrutinio, sino mayor rendición de cuentas.
Amnistía Internacional insta a una aplicación eficaz de la normativa y medidas sólidas de rendición de cuentas para abordar los daños sistémicos causados por las decisiones sobre diseño de X. Además, el gobierno británico debería abordar las deficiencias que aún existen en el actual régimen de seguridad digital para obligar a plataformas como X a rendir cuentas por los daños generales que causan sus algoritmos.
Información complementaria
Las autoridades británicas practicaron detenciones en respuesta a los disturbios racistas de Southport y acusaron de incitación a la violencia y propagación de falsedades maliciosas a usuarios de X y de otras plataformas. Algunos perpetradores fueron condenados a prisión por sus publicaciones en redes sociales. Un informe del Parlamento británico publicado en julio de 2025 establecía que los modelos de negocio de las redes sociales incentivaban la propagación de desinformación tras los asesinatos de Southport.


