• Accueil
  • Services
    • Anticipation des cyber risques
    • Conseil en droit des technologies émergentes
    • Conseil en protection des données
    • Sensibilisation et Formation
  • Communication & Média
    • Chronique
    • Podcast
  • A propos
  • Contact
influence cyber
twitter
linkedIn
ausha
contact@influence-cyber.fr
 GSM : +33 778 240 793
jurigeek et compagnie
  • Accueil
  • Services
    • Anticipation des cyber risques
    • Conseil en droit des technologies émergentes
    • Conseil en protection des données
    • Sensibilisation et Formation
  • Communication & Média
    • Chronique
    • Podcast
  • A propos
  • Contact

Cyber sécurité

  • Accueil
  • Chronique Juri-geek
  • Cyber sécurité
  • Les réseaux sociaux peuvent-ils vraiment améliorer leurs modèles ?

Les réseaux sociaux peuvent-ils vraiment améliorer leurs modèles ?

  • posté par Dr Nathalie DEVILLIER
  • Thèmes Cyber sécurité, Données à caractère personnel, Fake News, Intelligence artificielle, Municipales 2020, RGPD
  • Date 22 mars 2020

Alors que le premier tour des élections municipales aura lieu le 15 mars, Facebook annonce son « plan » pour lutter contre la désinformation en période électorale. Le « nouveau modèle » présenté à Bruxelles le 17 février par Mark Zuckerberg sera-t-il suffisant ?

Et les réseaux sociaux ont-ils réellement tiré toutes les leçons du scandale Cambridge Analytica ?

Que prévoit le Code électoral ?

La loi de 2018 relative à la lutte contre la manipulation de l’information fait obligation aux opérateurs de plates-formes tels que Facebook, Google et Twitter de garantir une information éclairée aux citoyens en période électorale afin de préserver la sincérité du scrutin.

Sont concernés les opérateurs de plate-forme en ligne au sens de l’article L. 111-7 du code de la consommation dont l’activité dépasse cinq millions de visiteurs uniques par mois, par plate-forme, calculé sur la base de la dernière année civile.

Quant aux scrutins, il s’agit de : l’élection du Président de la République, les élections générales des députés, l’élection des sénateurs, l’élection des représentants au Parlement européen et les consultations référendaires.

Ce dispositif s’inscrit dans une logique de responsabilisation des opérateurs de plates-formes afin de construire une relation de confiance entre eux, les pouvoirs publics et la société civile. Cette préoccupation est également présente au niveau de l’Union européenne où elle repose sur des mécanismes d’autorégulation avec : la communication de la Commission européenne « lutter contre la désinformation en ligne : une approche européenne », le code de bonnes pratiques sur la désinformation et la communication conjointe établissant le plan d’action contre la désinformation de l’Union européenne.

Le code électoral (art. L163-1 s.) prévoit que pendant les trois mois précédant le premier jour du mois d’élections, ces opérateurs de plates-formes publient toute une série d’informations agrégées au sein d’un registre mis à la disposition du public par voie électronique, dans un format ouvert, et régulièrement mis à jour.

Ces informations concernent :

  • L’identité de celui qui verse à la plate-forme des rémunérations en contrepartie de la promotion de contenus d’information,
  • Le montant des rémunérations reçues en contrepartie de la promotion de tels contenus,
  • L’utilisation des données personnelles de l’utilisateur de la plate-forme dans le cadre de la promotion d’un contenu.

En cas de manquement, le candidat qui s’estime lésé, ou un parti politique peut saisir le juge afin de faire cesser la diffusion (retirer les posts litigieux, voire bloquer le site Internet).

Toutefois, à la lumière de la première application du référé, il s’avère que la loi a un champ d’application très limité. En mai 2019, deux élus communistes avaient demandé le retrait d’un tweet du ministre de l’Intérieur concernant la Pitié-Salpêtrière. Tout d’abord, l’exigence d’« allégations ou imputations inexactes ou trompeuses ».

Or, la jurisprudence est stricte : le Tribunal de Grande Instance (TGI) de Paris a ainsi refusé de faire supprimer un tweet du ministère de l’Intérieur, car les termes employés (« attaque » et « blessures ») bien qu’exagérés n’étaient ni inexacts ni trompeurs.

Christophe Castaner

✔@CCastaner

Ici, à la Pitié-Salpêtrière, on a attaqué un hôpital.
On a agressé son personnel soignant. Et on a blessé un policier mobilisé pour le protéger.
Indéfectible soutien à nos forces de l’ordre : elles sont la fierté de la République.

View image on Twitter

2,808

8:04 PM – May 1, 2019 · Paris, France
Twitter Ads info and privacy
De plus, le juge a relevé que le ministre n’avait pas diffusé l’information « de manière délibérée, artificielle ou automatisée et massive par le biais d’un service de communication au public en ligne » et, enfin, le risque de manipulation du scrutin n’était pas avéré dans ce cas précis d’autres supports ayant relayé l’événement sous différentes versions permettant aux électeurs de se faire une opinion éclairée.

L’objectif est de lutter contre les contenus sponsorisés et les systèmes robotisés, les « fermes à clics », qui véhiculent ces fausses informations et qui le feraient sciemment, en sachant que l’information est fausse.

« Fermes à clics » en Inde, France TV.

Quand il est saisi, le juge des référés doit apprécier, sous 48 heures, si ces fausses informations sont diffusées de manière artificielle ou automatisée et massive. Des sanctions pénales sont également prévues : 75 000 euros d’amende et un an d’emprisonnement (art.L112 du code électoral).

Mais en créant ce dispositif, le législateur rate sa cible puisque la personne agissant en référé et invoquant l’existence d’une fausse information devra rapporter la preuve du caractère faux de l’information en question.

En effet, il est particulièrement difficile de rapporter la preuve d’un fait négatif (absence de possession d’un compte off-shore ou autre). On peut légitimement s’interroger sur l’efficacité d’un dispositif strictement national : le Règlement général sur la protection des données (RGPD) n’a-t-il pas précisément pris en compte le caractère mondial des enjeux en permettant une protection extraterritoriale des données à caractère personnel ?

Le devoir de coopération des opérateurs

Ces acteurs doivent mettre en œuvre des mesures en vue de lutter contre la diffusion de fausses informations susceptibles de troubler l’ordre public ou d’altérer la sincérité de ces scrutins nationaux. Ils doivent avoir un représentant légal en France, rendre publics leurs algorithmes et lutter contre les comptes propageant massivement de fausses informations.

Chaque opérateur adresse chaque année au Conseil supérieur de l’audiovisuel une déclaration dans laquelle sont précisées les modalités de mise en œuvre de ces mesures et des moyens qu’il y consacre.

En particulier, pour les algorithmes de recommandation, il faut publier la part d’accès direct par l’internaute c’est-à-dire sans recours à un moteur de recherche ou plate-forme et aussi indiquer la part des accès via un moteur de recherche interne de la plate-forme donc par le biais d’algorithmes de recommandation, de classement ou de référencement.

Facebook a communiqué son plan de lutte contre la désinformation avec plusieurs mesures pour garantir la transparence de la publicité engagée, par exemple la publication d’annonces publicitaires à caractère politique dans sa bibliothèque. Mais cet outil que je vous invite à tester reste peu intuitif pour l’utilisateur.

Capture d’écran de la « bibliothèque » de Facebook. Facebook

Il est en réalité assez difficile de savoir si un post à visée électorale est financé et si oui par qui. Pourquoi ne pas tout simplement mentionner le montant de la rémunération et sa source ?

Des promesses qui n’engagent que ceux qui les écoutent

Alors que l’an dernier Twitter avait bloqué la campagne d’information appelant à votre aux élections européennes du Service d’information du gouvernement, Facebook incite aujourd’hui ses membres à participer au scrutin de même que Snapchat avec un filtre dédié. Les plates-formes doivent en revanche rattraper leur retard et mieux expliquer comment la suppression de logiciels robots et de faux comptes a permis de limiter la diffusion de la désinformation.

Le manque de moyens humains, techniques ou financiers n’étant pas crédible au regard des actions de marketing ciblé extrêmement efficaces opérées par ces mêmes acteurs, nous nous interrogeons sur la sincérité de la démarche de ces plates-formes. Énième tentative de remettre le dossier sur la table et de tempérer les exigences de l’État français ?

Les limites du cadre juridique actuel

On le voit bien aujourd’hui, le scrutin municipal n’est pas visé par le dispositif alors que les électeurs sont tout autant vulnérables à la diffusion de fausses informations. L’Eurobaromètre 2018 indique que 37 % des personnes interrogées s’estiment confrontées quotidiennement ou presque à des fake news.

En dehors des limites juridiques stricto sensu, la réalité de la menace ne réside pas dans les fake news ou dans le financement des publicités mais plutôt dans le développement d’outils de ciblage politique comparables à ceux existants pour le marketing ciblé. Le débat public peut donc largement être altéré via la collecte de données de tous ordres ensuite agrégées par l’intelligence artificielle.

Pourquoi ne pas aller encore plus loin et exiger des plates-formes qu’elles fournissent à la communauté des chercheurs un véritable accès aux données, dans le respect des règles de protection des données à caractère personnel ?

L’usage de salariés ou de robots pour influencer les informations en ligne est un autre enjeu qui n’est pas encore intégré par le mécanisme français.

Favoriser l’éducation aux médias et à l’information

Le législateur encourage les opérateurs à sensibiliser les utilisateurs à l’influence de leurs propres contenus et à contribuer à développer leur sens critique, particulièrement celui des plus jeunes. Les plus jeunes ne sont pas (encore) électeurs : ce sont précisément les plus de vingt ans qui profiteraient le plus de cette mesure. Or, ils n’ont bénéficié d’aucune éducation aux médias ou aux outils du numérique.

Apprendre à chercher une information et à en identifier la source sont des fondamentaux que toute personne doit acquérir. Bien que cette mission relève de la politique d’éducation aux médias inscrite dans la loi de refondation de l’École, les utilisateurs de plates-formes restent autant démunis que l’État face aux stratégies déployées pour orienter leurs comportements individuels.

Cet article a initialement été publié sur le site The Conversation.

Étiquette:cybersécurité, démocratie, facebook, fake news, GAFA, Municipales 2020, plateforme, réseaux sociaux, RGPD, twitter, vie privée

  • Partager:
Dr Nathalie DEVILLIER
Dr Nathalie DEVILLIER

Nathalie DEVILLIER est la fondatrice d’Influence Cyber.

Docteur en droit international économique, son expertise est recherchée par les institutions européennes et internationales.

Post précédent

Obtenir un arrêt de travail en un clic?
22 mars 2020

Post suivant

Backtracking : comment concilier surveillance du Covid-19 et respect des libertés ?
5 avril 2020

Vous pourriez aussi aimer

CREDIT : Faut qu’on en parle !
Carte d’identité et carte vitale: une fusion à risques?
30 mai, 2023
eccc
Développer (et conserver) les capacités technologiques et industrielles en matière de cybersécurité avec le Centre européen de compétences cyber de Bucarest
5 avril, 2023
copyright Family3DNA
Ali Data et les 40 voleurs: fin de la récré pour le business des tests ADN commerciaux?
21 août, 2022

Rechercher sur le blog

Articles récents

  • Carte d’identité et carte vitale: une fusion à risques?
  • Data Act : la fin des pratiques anticoncurrentielles dans le cloud ?
  • Développer (et conserver) les capacités technologiques et industrielles en matière de cybersécurité avec le Centre européen de compétences cyber de Bucarest
  • Ali Data et les 40 voleurs: fin de la récré pour le business des tests ADN commerciaux?
  • Election présidentielle : cyber-campagne électorale et confiance dans l’intégrité du processus démocratique

Tag Cloud

Your browser doesn't support the HTML5 CANVAS tag.

  • objets connectés
  • cybersécurité
  • mégadonnées
  • RGPD
  • épidémie
  • démocratie
  • Amazon
  • télémédecine
  • données de santé
  • Apple
  • cnil
  • big data
  • coronavirus
  • domotique
  • téléconsultation
  • twitter
  • réseaux sociaux
  • google
  • Internet des objets
  • facebook
  • vie privée
  • GAFA
  • COVID-19
  • plateforme
  • sécurité
  • hacking
  • ASIP santé
  • fake news
  • données personnelles
  • nouvelles technologies

© 2019-2023 Influence Cyber - Tous droits réservés

  •  linkedin
  •  ausha
  • Conditions d’Utilisation
  • Politique de Confidentialité
  • Mentions obligatoires
  • création eyenet
En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour réaliser des statistiques de visites
AccepterRefuser En savoir plus
Politique de confidentialité

Privacy Overview

This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary
Toujours activé
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Non-necessary
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.
Enregistrer & appliquer