TikTok supprime des centaines de modérateurs humains au profit de l’IA
ByteDance, maison-mère de TikTok, vient d’annoncer la suppression d’environ 300 postes sur les 500 du département « Trust & Safety » de son siège londonien. À la place, la plateforme vidéo met désormais en service des algorithmes d’intelligence artificielle pour filtrer et retirer les contenus jugés inappropriés, dangereux ou illégaux. Cette mesure survient peu après l’entrée en vigueur de l’Online Safety Act britannique, qui impose aux réseaux sociaux d’agir rapidement sous peine de sanctions pouvant atteindre 18 millions de livres.
Automatisation : un pas de plus vers la modération algorithmique
Dans un courriel interne relayé par le Financial Times, la direction de TikTok explique que « les progrès technologiques, notamment l’amélioration des modèles linguistiques à grande échelle, redéfinissent notre approche de la modération ». Les tâches de « contrôle qualité » et de validation resteront actives, mais seront transférées hors de Londres.
TikTok revendique déjà la performance de ses systèmes automatisés :
- 80 % des contenus violant les guidelines sont supprimés sans intervention humaine.
- 99 % des contenus dangereux sont éliminés avant même d’être signalés par les utilisateurs.
- 60 % de la charge émotionnelle et du visionnage de vidéos traumatiques est retirée des modérateurs encore en poste.
Pour justifier ce tournant, l’entreprise annonce un plan d’investissement de 2 milliards de dollars en 2024 destiné à renforcer ses technologies de sécurité et à développer des IA toujours plus performantes.
Un mouvement mondial déjà amorcé
Ce remplacement progressif n’est pas isolé à Londres. En juillet, la filiale de Berlin a fermé son département Trust & Safety, provoquant une grève de 150 modérateurs. En Malaisie, près de 500 salariés ont également perdu leur emploi selon le South China Morning Post. TikTok maintient toutefois quelques centres régionaux, notamment à Dublin et à Lisbonne, pour gérer les dossiers complexes et résiduels nécessitant encore un jugement humain.
Contexte réglementaire : obligations et paradoxes
Le Online Safety Act est au cœur de cette transition. La loi britannique impose aux plateformes :
- De vérifier l’âge des utilisateurs pour protéger les mineurs.
- De retirer rapidement tout contenu illicite ou dangereux.
- De développer des mécanismes de signalement et de contrôle automatisés.
En réponse, TikTok déploie des outils capables d’analyser les interactions des utilisateurs pour estimer leur âge, bien que ces modèles n’aient pas encore reçu le feu vert de l’autorité britannique Ofcom.
Coûts réduits et délocalisation : le revers de la médaille
Si l’argumentaire de TikTok insiste sur le bien-être des salariés — en réduisant l’exposition à des vidéos choquantes —, le syndicat Communication Workers Union (CWU) pointe une logique de cost-cutting et de relocalisation :
- Les postes supprimés à Londres sont souvent transférés vers des pays au coût salarial plus bas.
- Un rapport de 2022 révélait que les modérateurs de l’entreprise sous-traitante Teleperformance en Colombie ne gagnaient que 235 livres par mois, contre 2 000 livres à leurs homologues britanniques.
Cette stratégie illustre le dilemme entre maximiser les profits — les revenus européens de TikTok ayant bondi de 38 % en 2024, à 6,3 milliards de dollars — et répondre aux exigences de conformité. Les pertes, quant à elles, sont passées de 1,4 milliard en 2023 à 485 millions en 2024.
L’IA peut-elle vraiment remplacer le jugement humain ?
La modération de contenu implique souvent une compréhension fine du contexte culturel, politique et social :
- Discours de haine masqués, sarcasmes, référentiels culturels locaux…
- Informations trompeuses ou manipulatoires qui échappent aux filtres purement techniques.
Nombre d’experts estiment qu’aucun algorithme, aussi sophistiqué soit-il, ne peut rivaliser avec l’intuition et la sensibilité d’un modérateur humain formé aux nuances de chaque communauté.
Vers une nouvelle ère de la sécurité en ligne
Malgré ces inquiétudes, TikTok persiste à investir massivement dans l’automatisation. Le défi pour l’entreprise sera désormais de prouver l’efficacité et l’éthique de ses systèmes IA, tout en gardant la confiance de ses utilisateurs et des autorités de régulation. Le pari est risqué : s’il réussit, TikTok pourrait devenir un modèle pour l’ensemble des plateformes sociales ; s’il échoue, il s’expose à des critiques sévères et à des sanctions légales.