Genèse et portée du Take It Down Act
Le Take It Down Act a franchi une étape majeure en étant adopté par la Chambre des représentants des États-Unis. À l’origine de cette proposition de loi, l’objectif affiché est de lutter contre la diffusion d’images intimes sans consentement, et en particulier les deepfakes à caractère pornographique impliquant des personnes réelles. Portée par la Première dame, Melania Trump, et jugée prioritaire par la Maison-Blanche, cette loi contraindra les plateformes à réagir très rapidement aux signalements des victimes.
Contenu principal de la loi
Selon le texte voté, tout contenu « non consensuel et à caractère sexuel » devra être supprimé des serveurs des réseaux sociaux et sites web dans un délai de 48 heures après notification par la personne concernée. Les deepfakes — ces vidéos ou images synthétiques créées à l’aide de l’intelligence artificielle — sont explicitement visés dès lors qu’ils mettent en scène des individus « réels et identifiables ». Ce mécanisme s’applique à toutes les plateformes qui hébergent du contenu généré par les internautes.
Mécanisme de retrait et contraintes temporelles
- Les victimes déposent une plainte ou une demande de retrait directement auprès du service en ligne.
- Le gestionnaire de la plateforme dispose de 48 heures pour évaluer et supprimer le contenu incriminé.
- En cas de non-conformité, des sanctions pénales et des amendes financières élevées sont prévues pour l’hébergeur.
Ce court délai d’intervention vise à limiter la propagation virale du contenu offensant, mais pose des défis techniques et juridiques pour les opérateurs.
Les critiques de la communauté pour la liberté d’expression
L’Electronic Frontier Foundation (EFF), organisation de défense des droits numériques, a vivement critiqué cette approche. Pour l’EFF, l’application de la loi pourrait s’étendre à toutes les images à caractère intime, même celles explicitement consenties ou présentant un usage légitime. Le texte ne distingue pas clairement le revenge porn — partage malveillant de photos privées — des contenus érotiques consensuels, ce qui risque de restreindre la création artistique et la liberté d’expression en ligne.
Le risque des plaintes frauduleuses
Parmi les points les plus polémiques, l’absence de dispositif de vérification solide est mise en avant. En effet, la loi impose le retrait quasi immédiat sans exiger une expertise préalable approfondie. Or, comme le souligne l’EFF :
- Les plateformes de petite taille, sans équipe juridique dédiée, supprimeront tout contenu signalé pour éviter un risque légal, même si le signalement est abusif.
- Des utilisateurs malintentionnés peuvent déposer de fausses plaintes pour faire disparaître des vidéos ou des documents parfaitement licites.
- Le caractère automatique de la procédure tend à priver les auteurs et créateurs de leur droit à la défense avant suppression.
Soutiens et oppositions politiques et industriels
Outre le soutien affiché de figures proches de l’administration Trump, plusieurs géants de la tech ont accepté publiquement la mesure : Meta, Google, Microsoft, TikTok, X (anciennement Twitter), Snap, Amazon, ainsi que les plateformes de rencontre Bumble et Match Group. Ces entreprises préfèrent une réglementation claire pour se protéger juridiquement, quitte à priver leur audience d’une partie de la richesse du contenu généré par les utilisateurs.
Enjeux techniques et perspectives
La mise en œuvre opérationnelle du Take It Down Act nécessite le développement d’outils de détection automatisée et d’équipes de modération prêtes à traiter un flux considérable de demandes. Les fournisseurs de services en ligne devront :
- Mettre à jour leurs systèmes de contrôle de contenu pour identifier rapidement les deepfakes.
- Former des équipes pour vérifier la légitimité des signalements et gérer les recours éventuels.
- Collaborer avec des experts en IA et en droit pour ajuster les critères de retrait.
La rapidité et la fiabilité de ces dispositifs seront décisives pour concilier protection des victimes et respect de la liberté d’expression.