



Par cet amendement du groupe LFI, nous souhaitons questionner les moyens humains et financiers que mettent en place les plateformes numériques pour procéder au retrait des contenus signalés notamment comme dangereux et/ou illicites. Alors que l'essor de l'intelligence artificielle semble se confirmer dans de nombreux domaines de la vie, on assiste depuis plusieurs années à l'annonce par les différentes plateformes numériques de plan de licenciements massifs de modérateurs humains des contenus signalés (suppression de 300 postes aux Pays-Bas par TikTok en septembre 2024, suppression de 2 000 postes en Espagne travaillant pour Meta en mai 2025...) pour les remplacer par des outils d'intelligence artificielle, réputés plus efficaces, mais surtout représentant un coût inférieur. Or, il est démontré que l’IA détecte encore mal une partie du contenu indésirable, notamment les abus et la cruauté, ce qui expose les utilisateurs les plus vulnérables, comme les personnes mineures à des contenus toujours plus dangereux, alors même que la modération actuelle n'est pas satisfaisante. Par conséquent, il est indispensable, afin de rendre effectives les différentes obligations existantes, que les plateformes numériques se dotent de moyens humains suffisants pour traiter les signalements. Or, ces effectifs sont aujourd'hui insuffisants : à titre d'illustration, concernant la modération en France, une représentante de TikTok, qui s’exprimait lors d’une audition à l’Assemblée nationale le 2 juillet dernier, estimait à 509 le nombre de modérateurs francophones chargés de couvrir l’Europe – ce qui semble dérisoire par rapport aux nombre de contenus potentiellement dangereux et/ou illicites à modérer. Si la question du recrutement de modérateurs humains est indispensable, la question de leurs conditions de travail et de rémunération doit également être prise en compte pour assurer la formation d'un personnel qualifié et épanoui au travail - les travailleurs étant exposés à un risque particulier de santé mentale en raison de la dangerosité des contenus visionnés. Or, la presse se fait régulièrement l’écho de conditions de travail particulièrement difficiles (sous-traitance du travail, rémunération faible, stress post-traumatiques en raison de l’absence d’accompagnement des modérateur•rices humains...), ce que confirme également les conclusions de la commission d'enquête qui soulignent qu’ « Au-delà de la formation, les conditions de travail des modérateurs doivent faire l’objet d’une attention particulière », sans proposer néanmoins de mesures coercitives pour les améliorer concrètement. Nous proposons donc d'approfondir cette réflexion en établissant un rapport précisant comment avoir recours à de la modération humaine des contenus, de l'opportunité de créer une obligation légale de modération humaine et de réfléchir aux différentes modalités de sa mise en oeuvre concrète afin d'assurer de façon effective la protection des utilisateurs et notamment des mineurs.
Ce scrutin n'a pas encore été classé dans des thèmes
Veuillez vérifier que vous n'êtes pas un robot pour pouvoir voter


































































