Bluesky a connu une croissance explosive l’année dernière, ce qui nécessite que la plateforme intensifie ses efforts de modération. Dans sa publication récente rapport de modération pour 2024, Bluesky a déclaré avoir augmenté d’environ 23 thousands and thousands d’utilisateurs, passant de 2,9 thousands and thousands d’utilisateurs à près de 26 thousands and thousands. Et ses modérateurs ont reçu 17 fois plus de signalements d’utilisateurs qu’en 2023 : 6,48 thousands and thousands en 2024, contre 358 000 l’année précédente.
La majeure partie de ces rapports concernaient le « harcèlement, la pêche à la traîne ou l’intolérance », le spam et les contenus trompeurs (y compris l’usurpation d’identité et la désinformation). La présence de comptes se faisant passer pour d’autres personnes à la suite du pic de popularité de Bluesky, et la plateforme avec une approche « plus agressive » pour tenter de la réprimer. À l’époque, il avait annoncé avoir quadruplé son équipe de modération. Le nouveau rapport indique que l’équipe de modération de Bluesky compte désormais environ 100 personnes et que le recrutement est en cours. « Certains modérateurs se spécialisent dans des domaines politiques particuliers, comme les brokers dédiés à la sécurité des enfants », note-t-il.
Bluesky affirme avoir reçu de nombreux rapports sur d’autres catégories, notamment les « problèmes illégaux et urgents » et les contenus sexuels non désirés. Il y a également eu 726 000 rapports marqués comme « autres ». Bluesky affirme avoir répondu à 146 demandes émanant « des forces de l’ordre, des gouvernements et des cupboards juridiques » sur un whole de 238 l’année dernière.
La plate-forme prévoit d’apporter quelques changements à la façon dont les rapports et les appels sont traités cette année, ce qui, selon elle, « rationalisera la communication avec les utilisateurs », comme fournir aux utilisateurs des mises à jour sur les actions qu’elle a prises sur le contenu qu’ils ont signalé et, plus tard, permettre aux utilisateurs de faire appel des décisions de retrait directement dans l’software. Les modérateurs ont supprimé 66 308 comptes en 2024, tandis que ses systèmes automatisés ont supprimé 35 842 profils de spam et de robots. « À l’horizon 2025, nous investissons dans des systèmes de détection proactifs plus solides pour compléter les rapports des utilisateurs, automobile un réseau en pleine croissance a besoin de plusieurs méthodes de détection pour identifier et traiter rapidement les contenus nuisibles », déclare Bluesky.