La Commission européenne poursuit la lutte contre les contenus illicites en ligne

Institutions
TAILLE DU TEXTE

La Commission européenne fixe des orientations et des principes afin que les plateformes en ligne renforcent la prévention, la détection et la suppression proactives des contenus illicites en ligne incitant à la haine, à la violence et au terrorisme.

La Commission européenne a  présenté des orientations et des principes relatifs aux plateformes en ligne le 28 septembre 2017. L'objectif est de renforcer la prévention, la détection et la suppression proactives des contenus illicites en ligne incitant à la haine, à la violence et au terrorisme. 

Ces propositions font suite aux conclusions du Conseil européen de juin 2017, reprises par les dirigeants du G7 et du G20. Il s’agit du premier volet du train de mesures en matière de lutte contre le terrorisme annoncé par le président Juncker. Ces mesures doivent permettre d'accroître l'efficacité de la lutte contre le contenu illicite et de faire progresser les travaux en cours afin d'instaurer une union européenne de la sécurité réelle et effective et un marché unique numérique plus fort.

 « L'état de droit s'applique en ligne autant que hors ligne. Nous ne pouvons accepter qu'il existe un far west numérique et nous devons agir. Le code de conduite dont j'ai convenu avec Facebook, Twitter, Google et Microsoft montre qu'une approche d'autorégulation peut servir d'exemple et produire des résultats. Toutefois, si les entreprises de haute technologie ne respectent pas leurs engagements, nous le ferons », explique Vera Jourová, commissaire pour la justice, les consommateurs et l'égalité des genres.

Bruxelles veut que les plateformes en ligne accentuent encore leurs efforts afin d'empêcher la diffusion de contenus illicites. La Commission attend des plateformes en ligne qu'elles prennent rapidement des mesures au cours des mois à venir, en particulier dans le domaine du terrorisme et des discours illicites d'incitation à la haine.

Trois axes pour une élimination préventive et efficace des contenus illicites

S’agissant de la détection et notification, la Commission considère que  les plateformes en ligne devraient coopérer plus étroitement avec les autorités nationales compétentes, en désignant des points de contact qui permettraient de pouvoir prendre rapidement contact avec elles pour supprimer des contenus illicites. Afin d'accélérer la détection, les plateformes en ligne sont incitées à collaborer avec des signaleurs de confiance, c'est-à-dire des entités spécialisées disposant d'une expertise en matière de contenu illicite. En outre, elles devraient mettre en place des mécanismes aisément accessibles afin de permettre aux utilisateurs de signaler des contenus illicites, et investir dans des technologies de détection automatique.

Pour une suppression efficace, Bruxelles estime que la suppression des contenus illicites devrait intervenir aussi rapidement que possible et peut être soumise à des délais précis lorsque les risques de dommages sont graves, comme dans les cas d'incitation à commettre des actes terroristes. La question des délais de suppression fixes fera l'objet d'une analyse plus approfondie de la Commission. Les plateformes devraient expliquer clairement à leurs utilisateurs leur politique en matière de contenu et publier des rapports de transparence précisant le nombre et le type de signalements reçus. Les entreprises de l'internet devraient également prévoir des garanties pour prévenir le risque de suppression excessive.

Enfin,  sur la prévention de la réapparition de contenus illicites, la Commission préconise aux plateformes de prendre des mesures afin de dissuader les utilisateurs de mettre en ligne de manière répétée des contenus illicites. La Commission encourage vivement l'utilisation et le développement d'outils automatiques permettant d'empêcher la réapparition d'un contenu précédemment supprimé.

 « La Commission a décidé de s'attaquer sérieusement au problème du contenu illicite en ligne », commente Mariya Gabriel, commissaire pour l'économie et la société numériques. « La situation n'est pas tenable : dans plus de 28 % des cas, la suppression du contenu illicite par les plateformes prend plus d'une semaine. Nous envoyons aujourd'hui un signal clair aux plateformes afin qu'elles agissent de manière plus responsable. Cela est essentiel pour les citoyens et le développement des plateformes. »

Arnaud Dumourier (@adumourier)