Vers un internet plus sûr ? Les avancées de la loi européenne sur les services numériques.

image_print

Près de deux décennies après la naissance de Facebook l’Union Européenne introduit une législation ambitieuse pour mettre un peu d’ordre au sein des plus grands forums en ligne du monde. Cette vaste loi promulguée en Octobre 2022 sous le nom de Digital Service Act (DSA) et consultable en ligne dans son intégralité (en cliquant ici) est destinée à lutter contre la misogynie, protéger les enfants, stopper la fraude à la consommation, freiner la désinformation et protéger les élections démocratiques… Le Royaume-Uni, de son coté, travaille depuis plusieurs années sur sa propre loi de sécurité en ligne (the Online Safety Bill) , non sans difficultés, mais les règles de l’UE auront probablement un impact plus important car elles couvrent un marché plus vaste et l’UE est plus influente en tant que pouvoir réglementaire.

Qu’est-ce que le Digital Service Act (DSA) ?

Le DSA s’applique au sein de l’UE et réglemente, dans le jargon législatif, les services numériques qui agissent comme des « intermédiaires de connexion » entre consommateurs et différents contenus, biens ou services. Cela signifie que non seulement Facebook et Google sont concernés par le projet de loi, mais également Amazon ou les plateformes d’applications (type Apple Store).

Le DSA règlemente par exemple la protection des enfants contre le « profilage » à des fins publicitaires mais oblige aussi les plateformes à donner aux utilisateurs les moyens de faire appel contre les retraits de contenu, à s’assurer que les produits vendus sur des marchés en ligne tels qu’Amazon ne sont pas contrefaits ou à agir contre les risques tels que la désinformation ou la « cyber-violence ». Les infractions sont passibles d’une amende de 6 % du chiffre d’affaires global et, dans les cas les plus graves, d’une suspension temporaire du service.

Quand le DSA entre-t-il en vigueur ?

La loi divise les entreprises technologiques en deux niveaux. Le niveau le plus fortement réglementé concerne les très grandes plateformes en ligne (VLOP) et les très grands moteurs de recherche en ligne (VLSE) qui comptent plus de 45 millions d’utilisateurs actifs par mois. L’UE déterminera quelles plates-formes sont éligibles pour cette catégorie au début de l’année prochaine. Pour ce niveau – qui pourrait inclure Facebook, Instagram, Google, TikTok et Amazon – les exigences sont plus strictes. Pour les VLOP et VLSE la loi pourrait entrer en vigueur à l’été 2023 et en début d’année prochaine pour les plateformes plus petites.

Les grands opérateurs doivent procéder chaque année à une évaluation de leur politique pour limiter les contenus préjudiciables tels que la désinformation, la misogynie, les préjudices aux enfants ou la manipulation des élections. Ils doivent également mettre en place des mesures pour atténuer ces risques, bien que toutes les principales plateformes de médias sociaux et moteurs de recherche disposent déjà d’équipes de modération de contenu. Néanmoins, ces systèmes seront désormais contrôlés par l’UE.

Les grandes plateformes devront également publier un audit indépendant de leur conformité à la loi, ainsi que du nombre de personnes qu’elles utilisent pour la modération de contenu. Ils doivent également fournir aux régulateurs des détails sur le fonctionnement de leurs algorithmes, qui organisent ce que vous consultez en ligne en recommandant du contenu. Des chercheurs indépendants seront également autorisés à surveiller le respect de la loi.

Partager le fonctionnement des algorithmes est une étape importante pour les entreprises technologiques. Les algorithmes de recommandation sont une « boîte noire » où les critères de priorisation des contenus sont le plus souvent opaques.

Comment le DSA protégera-t-il les enfants ?

Il sera interdit aux plateformes de médias sociaux de créer des profils d’utilisateurs enfants pour que les entreprises les ciblent avec des publicités. Les plateformes accessibles aux mineurs – en fait, la plupart des plateformes de médias sociaux – doivent mettre en place des mesures pour protéger leur vie privée et assurer leur sécurité. Les principales plateformes doivent également procéder à des évaluations des risques des contenus qui nuisent aux enfants et prendre des mesures pour empêcher que ces contenus n’atteignent les moins de 18 ans. La proposition de législation de l’UE vise à couvrir la suppression des contenus en ligne pédopornographiques.

En quoi est-il différent du projet de loi sur la sécurité en ligne du Royaume-Uni ?

La DSA ne définit pas explicitement ce qui est compris dans « le contenu illégal » – qui est soit défini au niveau des États membres de l’UE, soit via une autre législation couvrant le contenu terroriste. Le projet de loi britannique (the Online Safety Bill), qui est toujours en cours d’examen au Parlement, est plus précis : il crée de nouvelles infractions telles que le harcèlement sexuel par envoi de photo non consentie ou l’incitation à l’automutilation et comporte une liste de contenus illégaux que les utilisateurs ne doivent pas rencontrer. Il exige également que les sites Web de pornographie effectuent des vérifications d’âge, un niveau de détails qui n’est pas précis dans la DSA. Cependant, les deux exigent que les principales plateformes effectuent des évaluations des risques de contenu préjudiciable apparaissant sur leur plateforme et expliquent comment elles atténueront ces risques.