Fermer

Ce formulaire concerne l’abonnement aux articles quotidiens de Superception. Vous pouvez, si vous le préférez, vous abonner à la newsletter hebdo du site. Merci.

Abonnement

Fermer

Communication.Management.Marketing

Toute vérité n'est que perception

Dix pistes pour réguler le numérique

Le débat à ce sujet continue de faire rage des deux côtés de l’Atlantique.

Toute réflexion dans ce domaine doit prendre en compte deux dispositions existantes, la section 230 de la loi américaine sur la décence des communications (Communications Decency Act) et le règlement général de l’Union européenne sur la protection des données (RGPD).

La section 230, moins connue en Europe que le RGPD, a une influence autrement décisive sur nos pratiques en ligne. Depuis 1996, elle protège les services numériques contre les responsabilités qu’ils pourraient encourir du fait des contenus mis en ligne par les internautes sur leurs plates-formes. Cette disposition est encore plus permissive que le Premier amendement de la Constitution américaine sur la liberté d’expression qui, lui, connaît quelques restrictions1 relatives, par exemple, à l’incitation à des actes illégaux imminents, la profération de “menaces réelles” ou la violation de la propriété intellectuelle. Du fait de son extraordinaire laxisme, la section 230 a joué un rôle déterminant dans la constitution d’un Internet où la liberté d’expression ne connaît aucune autre limite que celles que s’imposent les entreprises concernées. C’est en effet la deuxième disposition majeure de la section 230 : elle habilite les sites et plates-formes numériques à policer les contenus publiés en leur sein dans la mesure de leurs moyens. Cette prescription visait à compenser le fait que, jusqu’à présent, ceux qui essayaient de modérer les contenus mis en ligne par les internautes étaient davantage attaqués pénalement que ceux qui s’en lavaient complètement les mains. Les géants du numérique bénéficient donc à la fois d’une immunité totale à l’égard des lois de l’Etat américain et de la capacité d’imposer leurs propres règles sur leurs sites et applications. La seule modification de cette loi intervint en 2018 lorsque la responsabilité des services numériques fut accrue à l’égard de l’identification et l’élimination des contenus liés au trafic sexuel2.

Aujourd’hui, alors que les dérives observées en ligne ont dépassé tout ce que le législateur américain pouvait imaginer en 1996, la section 230 est-elle encore pertinente ? Ses détracteurs ont raison d’affirmer qu’elle permet aux acteurs du numérique de propager des contenus qu’aucun autre média ne pourrait diffuser sans en subir de réelles conséquences. Ses défenseurs estiment qu’elle donne la latitude auxdits acteurs d’encadrer les contenus mis en ligne sur leurs plates-formes. Le problème est que cet encadrement ne repose que sur la bonne volonté des entreprises concernées et que celles-ci n’ont jusqu’à présent montré aucun intérêt, en l’absence d’une législation les contraignant à ce faire, à remettre en cause leur modèle de monétisation pour assurer la salubrité de la Société. Or toute réflexion à ce sujet se trouve vite bornée par le manque de faisabilité des solutions proposées : pour réellement contrôler les contenus mis en ligne par les internautes, il faudrait les empêcher de publier quelque message, information ou opinion avant qu’ils n’aient été “validés” par des systèmes de revue humaine et/ou électronique. C’est pourquoi la seule option réaliste me semble être de contraindre les acteurs numériques à faire davantage d’efforts pour appliquer la liberté d’encadrement des contenus que la section 230 leur confère. Il n’est évidemment pas question d’affirmer que toutes les plates- formes ne font rien dans ce sens aujourd’hui : Facebook n’est heureusement pas comparable à 8chan de même que Twitter ne peut être assimilé à Gab. La seule autre solution serait d’interdire l’expression des internautes sur Internet, ce qui serait encore plus irréaliste en termes de liberté d’expression notamment.

Quant au règlement général de l’Union européenne sur la protection des données (RGPD), son bilan en matière de respect de la vie privée des internautes est mitigé. Il faut dire que son histoire est encore très jeune : le règlement fut adopté en 2016 et entra en vigueur en mai 2018. Il impose notamment aux acteurs du numérique et aux entreprises actives en ligne de collecter les données de leurs utilisateurs et clients européens3 dans le cadre de conditions d’approbation strictes de leur part, de gérer lesdites données en les protégeant de toute exploitation tierce, d’honorer les droits de leurs détenteurs et de prévenir ces derniers et le régulateur dans les 72 heures suivant une violation de données. En cas de non-respect du règlement, les contrevenants peuvent être condamnés à payer une amende représentant jusqu’à 4% de leur chiffre d’affaires mondial. Au crédit du RGPD, il faut mettre le renforcement du débat public autour des enjeux de respect de la vie privée en Europe et dans le reste du monde. Au-delà des aspects de conformité, un autre de ses effets positifs est de stimuler l’intégration des enjeux de données privées dès la conception des produits et expériences utilisateur au lieu qu’ils ne soient pris en compte qu’en toute fin de cycle (ou pas du tout). Cependant, l’augmentation significative du nombre de violations signalées ne s’est pas, pour l’instant, traduite par une amélioration du respect de la vie privée des internautes en Europe dans ce nouveau cadre législatif, peut-être en raison de sa complexité et son ambiguïté.

Ce qui est patent, en revanche, est que ce règlement favorise les plus gros acteurs au détriment des petits et n’est donc pas propice au développement d’une concurrence accrue. Il impose certes de nouvelles contraintes à l’activité de Facebook et Google mais ces géants sont mieux équipés pour s’y adapter que les acteurs de taille plus modeste. Sheryl Sandberg, la directrice générale de Facebook, le reconnut d’ailleurs : “En vérité, c’est plus facile pour les grands groupes comme Facebook ou d’autres gros acteurs que pour les startups de mettre en place les éléments permettant de se conformer à ces régulations. Si je pense à Facebook il y a dix ans, le RGPD aurait été beaucoup plus problématique pour nous”. Au final, les plus grandes plates-formes sont donc gagnantes car le RGPD préserve leur position dominante au lieu de la remettre en question. A cet égard, une passionnante analyse réalisée en septembre 2018 montre que Google (surtout) et Facebook sont les deux seuls médias publicitaires en ligne à avoir vu leur part de marché augmenter depuis l’entrée en vigueur du règlement européen. Les dirigeants de grandes agences de publicité constatent également une tendance, chez leurs annonceurs, à concentrer leurs investissements publicitaires numériques sur les plus grandes plates-formes auxquelles elles font davantage confiance pour être en règle avec le RGPD.

(CC) Brookings Institution

Dans ce cadre forcément imparfait, quelles modalités, forcément incomplètes, de régulation de l’activité numérique pourraient mitiger ses effets négatifs sur nos Sociétés ?

Je vous propose dix mesures4 susceptibles d’atténuer les dérives qui gangrènent la démocratie dans la sphère numérique :

1. Etablir une proportionnalité entre le nombre d’actions détenues dans une entreprise et les droits de vote associés et prohiber les classes d’actions spéciales donnant des droits de vote léonins.
Il s’agit de la mère de toutes les mesures de régulation de l’univers numérique. Elle éviterait que les fondateurs des entreprises de ce secteur se croient tout permis et disposent d’un contrôle indu sur les organisations qu’ils dirigent. Le cas d’Adam Neumann, cofondateur et ancien patron de WeWork, fournit une démonstration acide de l’absurdité amorale de ce système. Il possédait des actions spéciales lui attribuant chacune vingt droits de vote, ce qui obligea le conglomérat japonais SoftBank, quand il voulut sauver financièrement WeWork après l’annulation de son introduction en Bourse, à lui verser une dotation de rupture de 1,7 milliard de dollars. En effet, si Adam Neumann était loin de détenir la majorité du capital de WeWork, il avait un contrôle total sur l’Entreprise grâce à ses actions spéciales et ne pouvait donc pas en être écarté, même si tous les autres actionnaires le décidaient. C’est ainsi qu’il se retrouva milliardaire après avoir causé par ses dérives managériales et éthiques5 la rétractation de l’introduction de WeWork en Bourse, ruiné ses coactionnaires6 (la valorisation de l’Entreprise ayant chuté de 47 milliards de dollars à moins de 8 milliards) et provoqué le congédiement de plusieurs milliers de ses anciens collaborateurs dont WeWork n’aurait même pas eu les moyens, sans l’aide de SoftBank, de payer les indemnités de licenciement en raison de sa désastreuse gestion. Le contrôle total dont certains fondateurs bénéficient sur leurs entreprises les rend également totalement indifférents aux attentes de leurs parties prenantes. L’un des exemples les plus saillants à cet égard est la réaction officielle de Sheryl Sandberg, numéro deux de Facebook, au légitime scandale suscité par la révélation de l’expérimentation que le Groupe mena en 2014 : ses équipes intervinrent alors sur les messages diffusés sur les “murs” de 689 000 de ses membres afin de tester comment le changement du rapport entre informations négatives et positives influerait sur leur humeur, et ce sans consulter ni même informer les intéressés. Facebook rendit donc un grand nombre de ses membres tristes afin de démontrer que les émotions pouvaient se transmettre sur sa plate-forme. Confrontée au choc que la divulgation de cette pratique suscita7, Sheryl Sandberg expliqua que cette expérience était normale mais qu’elle avait été mal communiquée et ne s’excusa que pour cette mauvaise communication. Quand on se croit tout permis parce qu’on est indéboulonnable de sa position de pouvoir, on finit par perdre tout sens des réalités. On retrouve ce sentiment d’impunité dans le fait que Facebook attendit toujours que l’irréparable se soit produit, dans la manipulation de l’élection présidentielle américaine de 2016, le génocide birman ou le massacre de Christchurch par exemple, pour envisager, sous une pression incontournable, d’agir sans pour autant jamais remettre en cause son modèle de monétisation. Quant à la résolution de ces patrons de droit divin d’utiliser tous les moyens à leur disposition pour préserver leur emprise sur leur empire, elle est illustrée par des documents internes à Google rendus publics en 2018 dans le cadre d’un procès : ils révélèrent que Larry Page, cofondateur et PDG du Groupe, craignant, en 2011, de perdre le contrôle des votes si Sergey Brin (son cofondateur) et Eric Schmidt (le cadre-dirigeant qui les avait accompagnés dans leurs jeunes années) vendaient une partie de leurs actions de classe spéciale qu’il n’avait pas les moyens de racheter, menaça son conseil d’administration de démissionner de son poste ou de ne plus réaliser d’acquisitions dilutives de son pouvoir. Il obtint gain de cause sous la forme de la création d’une nouvelle classe d’actions n’attribuant aucun de droit de vote à ses détenteurs, ce qui préservait sa toute-puissance.

2. Instituer que les internautes détiennent leurs données personnelles et aient un contrôle total sur elles.
Ils pourraient décider comment elles sont recueillies et utilisées et les supprimer à leur guise. Ils auraient le droit de connaître l’identité de chaque organisation (plates-formes et parties tierces) ou personne ayant accès à leurs données et pourraient interdire ledit accès s’ils le souhaitent à certaines d’entre elles en fonction de l’utilisation qu’elles voudraient en faire. Cette disposition instaurerait une transparence et une responsabilité indispensables pour atténuer les effets du principal vecteur des dérives actuelles, l’exploitation indue des données personnelles, que met en lumière, par exemple, les informations recueillies par Facebook sur les internautes (la liste qui suit n’est pas exhaustive) : il recueille des informations sur les sites Internet que ses membres visitent, les applications qu’ils utilisent, les localisations géographiques où ils se rendent (y compris lorsqu’ils n’utilisent pas Facebook) et les appels qu’ils passent sur leurs smartphones Android. Le Groupe collecte certaines de ces informations au sujet des internautes qui ne sont même pas membres de son réseau social en fouillant dans les données de celles de leurs relations qui, elles, le sont. En outre, si ses utilisateurs peuvent contrôler qui voit les messages qu’ils publient sur leurs “murs”, ils ne peuvent aucunement maîtriser les informations à leur sujet, glanées dans le cadre de leur utilisation de Facebook et du reste de leur vie en ligne et hors ligne, que le Groupe transmet aux annonceurs pour optimiser le ciblage de leurs messages publicitaires8.

3. Imposer la portabilité des données entre plates-formes numériques.
Pour ce faire, les graphes sociaux des internautes (i.e. leur réseau de relations en ligne) devraient être leur propriété et non celles des plates-formes, de même que les internautes détiennent leurs annuaires d’adresses email et peuvent passer librement d’un service email à l’autre. Cette disposition permettrait aux internautes d’utiliser leur graphe social dans plusieurs réseaux sociaux. De ce fait, la compétition entre acteurs du numérique serait davantage fondée sur les qualités de leurs services respectifs. Elle serait également rééquilibrée : les nouveaux entrants pourraient compenser en partie l’absence d’effet réseau dont ils pâtissent à leurs débuts. Celle-ci constitue une barrière insurmontable à l’adoption à grande échelle de leur service : un jeune concurrent de Facebook n’a aucune chance de lutter contre les 2,8 milliards de membres actifs mensuels que compte le réseau de Mark Zuckerberg, à moins d’avoir, comme TikTok, une maison-mère prête à investir près d’un milliard de dollars en publicité afin de le faire connaître. Pour prendre conscience de l’intérêt stratégique de ce graphe social aux yeux des plates-formes, il suffit de se reporter aux 7 000 pages de documents internes à Facebook (emails, chats en ligne, présentations, tableaux, résumés de réunion…) couvrant la période 2011-2015 obtenus par la chaîne de télévision américaine NBC : elles montrent que “Mark Zuckerberg supervisa des plans pour consolider le pouvoir du réseau social et contrôler ses concurrents en traitant les données privées de ses utilisateurs comme un objet de marchandage, tout en proclamant publiquement qu’il protégeait lesdites données”. Selon les cas, Facebook récompensait ses partenaires préférés en leur donnant accès aux données privées de ses membres et punissaient ses concurrents en leur déniant cet accès. Facebook contribua par exemple à la mort du réseau Vine, qui permettait à ses membres de diffuser des vidéos de six secondes : Mark Zuckerberg décida en 2013 de supprimer la faculté de Vine de connecter ses membres à leurs amis sur Facebook, ce qui rendit beaucoup plus difficile le développement de sa communauté. Amazon disposa, lui, d’un accès préférentiel aux données personnelles des membres de Facebook parce qu’il investissait en publicité sur la plate-forme, alors que l’accès de l’application MessageMe à ces informations fut coupé quand elle devint un concurrent dangereux pour le Groupe.

4. Interdire aux champions du numérique de réaliser des acquisitions anti-concurrentielles et séparer Instagram et WhatsApp de Facebook.
A la fin du dix-neuvième siècle, John Sherman, sénateur républicain de l’Ohio, déclara à propos de la montée en puissance d’entrepreneurs privés (Andrew Carnegie, J.P. Morgan et John D. Rockefeller…) dans le pétrole, les chemins de fer et la banque, surnommés les “barons voleurs” en raison de leurs pratiques douteuses : “Si nous n’acceptons pas un roi comme pouvoir politique, nous ne devrions pas accepter un roi pour la production, le transport et la vente de tout ce qui est vital. Si nous ne nous soumettons pas à un empereur, nous ne devrions pas nous soumettre à un autocrate du commerce susceptible d’empêcher la concurrence et de fixer les prix de toutes les marchandises9. C’est cette logique qui donna naissance à la première loi anti-trust américaine, laquelle porte le nom du sénateur Sherman. Il s’agit aujourd’hui d’interdire aux rois du numérique de se comporter à leur tour en “barons voleurs” en empêchant par exemple le développement de rivaux (voir point 3). De fait, Mark Zuckerberg avale ses concurrents pour la même raison que Cronos dévorait ses enfants : de peur qu’ils ne le détrônent. L’absence de nouvelle compétition dans ce secteur se traduit d’ailleurs par l’effondrement du flux de capital investis par les sociétés de capital-risque américaines dans les entreprises de réseaux sociaux et messagerie : il est passé de deux milliards de dollars en 2013 à presque zéro en 2019. Incidemment, l’argument sur la puissance supposée que Facebook, Instagram et WhatsApp se confèrent mutuellement dans la modération de leurs contenus respectifs n’est pas recevable, comme le montrent les exemples de réseaux plus modestes (Pinterest, Snapchat…) qui marquent des points dans ce domaine, non pas parce qu’ils disposent de moyens considérables mais parce qu’ils font preuve d’une résolution sans rapport avec celle des dirigeants de Facebook. C’est d’ailleurs aussi la raison pour laquelle démanteler le groupe de Mark Zuckerberg (ou scinder Google et YouTube) ne réglerait pas automatiquement les problèmes de modération de contenus. Il faut distinguer les enjeux de concurrence et congruence.

Mark Zuckerberg témoigne devant une commission du Congrès américain – (CC) Michael Reynolds

5. Sommer les champions du numérique de publier une charte de modération de contenus claire, succincte et cohérente et les faire auditer chaque année par une institution indépendante pour évaluer leur performance dans son application.
Aucune dérive éditoriale, aucune manipulation politique, aucun drame humain individuel, aucune tuerie de masse n’a conduit les dirigeants des plates-formes numériques à réformer leur modèle opérationnel. Il est désormais clair qu’ils n’agiront pas de manière disruptive à moins d’y être contraints. Le cas de Facebook Live, où fut diffusé en direct par le tueur le massacre de Christchurch, est emblématique à cet égard. Le questionnement lié à la diffusion d’actes violents en direct sur ce canal n’a en effet pas vu le jour avec le drame de mars 2019. Depuis les débuts de Facebook Live en 2015, des meurtres, viols et violences sur enfants y avaient été retransmis sans que cela perturbe le moins du monde les dirigeants du Groupe. La mesure que je propose, qui serait cohérente avec la section 230 de la loi américaine sur la décence des communications donnant toute latitude à chaque plate-forme d’encadrer ses contenus, permettrait de remplacer l’application au cas par cas, par chaque plate-forme, de principes aussi nébuleux qu’incohérents. Ces règles ne sont jamais mises en œuvre rigoureusement : pour chaque action coercitive prise par l’une d’elles, il est possible de trouver nombre d’autres violations de la même prescription restées impunies. Cela confère à ces directives un caractère arbitraire qui est d’autant plus préjudiciable qu’il a trait à la liberté d’expression. L’exemple de YouTube est particulièrement aberrant : d’anciens collaborateurs qui étaient chargés de la modération de contenus au sein de la filiale de Google ont accusé celle-ci d’appliquer des châtiments moins graves aux créateurs de contenus qui transgressent ses règles mais produisent des revenus importants à leur profit et à celui de YouTube (qui prélève une partie de leurs rentrées publicitaires). Or les contenus les plus scandaleux sont souvent ceux qui génèrent le plus d’attention et, partant, de revenus. La disposition que j’avance devrait être conditionnée à l’imposition d’amendes dissuasives – c’est-à-dire plus importantes que celles décidées jusqu’à présent par l’Union européenne dans le cadre du RGPD et la Federal Trade Commission, l’instance américaine de régulation de la concurrenceIl convient de noter que cette proposition est moins ambitieuse que celle énoncée par Mark Zuckerberg dans un éditorial, dont il ne faut pas sous-estimer l’hypocrisie10, publié en mars 2019 dans The Washington Post : il proposa que des organisations indépendantes définissent les règles en matière de diffusion de contenus nocifs, y compris en précisant quels contenus sont interdits. Cette idée me semble aller à l’encontre de la section 230 et être irréalisable à l’échelle internationale (une entreprise privée transnationale telle que Facebook ou YouTube aurait plus de facilités à imposer des règles mondiales dans son domaine d’activité qu’une institution devant les faire valider par chaque pays). La proposition de Mark Zuckerberg présente en revanche l’avantage pour Facebook de sous-traiter à une autre organisation une responsabilité essentielle de la maîtrise de sa propre plate-forme. Certes, la disposition que je propose ne changerait rien à l’approche des services les plus indignes (4chan, 8chan, Gab…), qui publieraient des chartes n’induisant aucune restriction11. Mais elle pourrait motiver les applications grand public, en raison des amendes et de la mauvaise publicité encourues, à faire progresser leurs pratiques.

6. Eliminer les moteurs d’engagement algorithmiques et les publicités dangereuses.
Cette mesure concernerait notamment les rubriques des sujets les plus populaires sur Twitter et le système de recommandation de YouTube12 qui accordent une forme de légitimité aux contenus les plus sensationnalistes et/ou extrêmes. Elle permettrait d’éviter de donner une caisse de résonance inutile aux fausses informations et messages porteurs de violence sans atteindre à leur liberté d’expression. Le traitement par YouTube du site de propagande Russia Today (RT) contrôlé par le gouvernement russe13 éclaire les mécanismes malfaisants que ces algorithmes mettent en branle : le moteur de recommandation du service, qui est à l’origine de 70% des vidéos qui y sont visionnées, considère, à partir du grand nombre de vues produites par les vidéos pièges à clics de RT, que les autres vidéos du site russe sont également dignes d’intérêt et les recommande donc à ses utilisateurs. Autre exemple de cette nocuité, le fait que, quelques jours après la tuerie de masse de la synagogue de Pittsburgh (onze morts et sept blessés en octobre 2018), la formule “Tuer tous les juifsapparut dans la rubrique des sujets les plus populaires (“Trends”) de Twitter. En outre, il conviendrait d’interdire les publicités dangereuses (appels à la violence, propagande anti-vaccins…) sur les plates-formes sociales. Ici encore, il ne s’agirait pas de limiter la liberté d’expression dont ne relèvent pas les prises de parole payantes.

7. Nettoyer les résultats des moteurs de recherche des contenus inacceptables.
Cette disposition est complémentaire de la sixième mesure et répond aux mêmes enjeux et objectifs. Les vecteurs de contenus dangereux ou appelant à la violence seraient occultés dans les résultats des moteurs de recherche des plates-formes numériques.

8. Retirer toutes les mesures de popularité des réseaux sociaux.
Il s’agit notamment des nombres d’abonnés, d’amis, de vues, de “likes”, de partages, de commentaires…14 Le premier défaut de cette hiérarchisation est qu’elle ne tient aucun compte de la qualité desdits contenus ni même de leur véracité la plus élémentaire. Sa deuxième faiblesse, plus néfaste encore, est qu’elle peut être manipulée par des robots. Chacune de ces déficiences considérées individuellement est problématique. Conjuguées, elles sont explosives. En effet, l’illusion d’autorité que cette hiérarchie confère aux contenus est l’un des principaux agents des manipulations antidémocratiques. Il convient d’ailleurs de noter que Pinterest a supprimé la mention du nombre d’abonnés sur les comptes de ses utilisateurs individuels en novembre 201915. Evan Sharp, cofondateur et patron du design du réseau, expliqua alors que cette décision permettrait que les contenus de ces comptes soient davantage dédiés aux idées de leurs propriétaires et moins à la manière dont ceux-ci sont perçus.

9. Proscrire les robots qui se font passer pour des humains.
Cette mesure permettrait d’éviter que l’un des moyens de manipulation potentiellement les plus dangereux, qui n’est encore qu’en phase de développement, ne devienne irrésistible. Il faudrait soumettre les entreprises qui les laissent opérer sur leurs plates-formes à des pénalités substantielles, imposer une information du public au sujet de chaque action de chaque robot et donner la possibilité aux internautes de les bloquer.

10. Assujettir le secteur de la publicité politique numérique aux mêmes obligations que celles prévalant à la télévision.
En premier lieu, les téléspectateurs américains sont clairement informés de l’organisation qui a approuvé et financé les publicités politiques qu’ils visionnent. Les internautes devraient eux aussi savoir qui paie chaque publicité qu’ils voient. Cette mesure permettrait d’éviter que des manipulations politiques, d’origine intérieure ou étrangère, soient indétectables. Elle ne les rendrait pas inoffensives pour autant – les internautes seraient toujours susceptibles de croire leurs messages mais au moins le feraient-ils en toute connaissance de cause sur leur origine. En second lieu, comme l’a noté Alex Stamos, ancien directeur de la sécurité de Facebook, la diffusion de publicités politiques mensongères sur les réseaux sociaux est rendue plus néfaste encore par les capacités de micro-ciblage des audiences : un dirigeant politique qui ment de la même façon à l’ensemble de l’électorat est beaucoup moins dangereux qu’un autre qui adapte ses mensonges aux différentes personnes auxquelles il s’adresse sans que le reste de la population puisse s’en apercevoir. Abraham Lincoln avait noté que “on peut tromper une partie du peuple tout le temps et tout le peuple une partie du temps mais on ne peut pas tromper tout le peuple tout le temps”. Avec Facebook, c’est désormais possible. Aussi Ellen L. Weintraub, présidente de la Commission électorale fédérale américaine, recommande-t-elle d’interdire le micro-ciblage des publicités politiques sur les plates-formes numériques en limitant leur ciblage à un niveau de circonscription inférieur à celui de l’élection concernée : un postulant au poste de gouverneur d’un Etat pourrait par exemple cibler la population de l’ensemble de l’Etat ou de chacun de ses comtés mais pas davantage. Cela rapprocherait le fonctionnement de la publicité politique en ligne des pratiques en vigueur à la télévision où le ciblage est éminemment plus limité. En outre, cette disposition permettrait d’éviter que davantage de réseaux sociaux ne suivent l’exemple de LinkedIn, Pinterest, TikTok et Twitter16 en bannissant toute publicité politique de leurs plates-formes. En effet, cette décision est contre-productive sur le plan démocratique car elle pénalise les candidats les moins connus. Une étude a mis en lumière un autre inconvénient de cette approche : elle favorise les candidats les mieux financés car la publicité sur les réseaux sociaux est moins coûteuse que dans les autres médias. Pour les élections dans les chambres des représentants des Etats américains, plus de dix fois plus de candidats diffusent des publicités sur Facebook qu’à la télévision. Les réseaux sociaux constituent donc un vecteur potentiel de diversification du personnel politique.

Deux mesures de régulation naturelle sont susceptibles de compléter ces dix mesures de régulation étatique.

La première impliquerait les annonceurs : Factmata est une start-up qui veut leur donner la possibilité d’évaluer la qualité, et pas seulement la visibilité, des contenus auxquels ils sont susceptibles d’associer leurs messages. Grâce à des solutions d’intelligence artificielle, Factmata ambitionne de décerner une note de qualité à des millions de contenus, un Q-CPM qui complèterait le CPM (cost per mille ou coût pour mille vues) principalement considéré par les marques, aujourd’hui, dans leurs investissements publicitaires numériques. Le paradoxe, aux yeux de certains, pourrait être que la publicité garantisse la morale cathodique. Mais est-ce vraiment absurde qu’une liberté (le libre marché) en borne une autre (la liberté d’expression) ? En outre, une recherche menée sur 20 000 sites par l’organisation à but non lucratif Global Disinformation Index montre que les sites extrémistes et de désinformation génèrent au moins 235 millions de dollars de revenus publicitaires annuellement. Cela signifie que beaucoup de marques contribuent, le plus souvent involontairement, à cet écosystème de la haine.

La seconde mesure de régulation naturelle est sans conteste la plus importante. Il s’agit d’éduquer les internautes, à l’instar de ce que la Finlande accomplit. Depuis 2014, après avoir observé le rôle joué par la propagande russe dans l’annexion de la Crimée, le pays, qui est extrêmement sensible à la menace latente représentée par son imposant voisin, lança un programme national de formation des étudiants, adultes, journalistes et politiciens aux risques de désinformation et manipulation posés par Internet. Cette décision intervint deux ans avant l’attaque de la Russie sur l’élection présidentielle américaine qui porta Donald Trump au pouvoir. Au-delà des aspects pratiques de cette formation, le système éducatif fut également réformé afin d’encourager la réflexion critique dès le lycée. Aujourd’hui, la Finlande se classe première parmi les 35 pays analysés par le Reuters Institute quant à la capacité de sa population à résister au phénomène de la post-vérité (la France est seizième). Parallèlement, la Finlande arrive également en tête du classement des pays en matière de confiance dans les médias.

Un autre facteur rendant cette politique d’éducation indispensable est le vieillissement de la population. Ainsi, aux Etats-Unis, les personnes de 65 ans et plus représenteront-elles bientôt la classe d’âge la plus importante. Or c’est celle qui souffre le plus d’illectronisme et qui risque donc le plus d’être manipulée en ligne, et ce alors même que c’est elle qui, souvent, vote le plus : une recherche réalisée par une équipe des universités de New York et Princeton a montré que les internautes américains âgés de plus de 65 ans partagent sur Facebook sept fois plus de “fake news” que les 18-29 ans et plus de deux fois que les 45-65 ans.

Au-delà de l’exemple finlandais, un programme de formation moins ambitieux conduit en Ukraine auprès de quinze mille personnes de tous âges et toutes conditions montre les effets positifs d’initiatives d’éducation. Il fut focalisé sur l’identification des signes de manipulation et désinformation dans la relation de l’actualité par les médias afin de développer, lui aussi, l’esprit critique des participants. Ceux-ci reçurent en moyenne une demi-journée d’apprentissage. Une évaluation réalisée un an et demi après la formation montra ses effets positifs durables : les participants au programme étaient 28% plus enclins que les membres d’un groupe de contrôle à faire montre d’une connaissance approfondie du secteur des médias d’information, 25% plus portés à consommer plusieurs sources d’information et 13% plus aptes à identifier et analyser une “fake news”En complément des efforts d’éducation pour combattre l’illectronisme, le rétablissement d’une forme de service national pourrait permettre, durant un an, de recréer du lien civique et combattre la tribalisation de la Société engendrée par la révolution numérique17.

Une régulation du numérique est donc possible. Il suffirait, pour qu’elle devienne effective, que les dirigeants des Etats aient davantage de courage moral que ceux de la Silicon Valley.

1 Définies par la Cour suprême dans plusieurs décisions successives.

2 Il s’agit de la loi “Allow States And Victims To Fight Online Sex Trafficking Act” (source : Makini Brice et Jeff Mason, Reuters, 11 avril 2018).

3 Que leur activité se déroule en Europe ou pas.

4 J’ai exclu une onzième décision de ma liste car, malgré son intérêt, elle me semble difficile à mettre en œuvre dans un pays et encore plus à l’échelle mondiale : interdire que des publicités ne soient ciblées vers des personnes et revenir à l’ancienne approche où elles étaient associées à des contenus. De fait, la révolution numérique a permis de cibler des individus en suivant leurs pérégrinations sur Internet afin de connaître leurs goûts et s’adresser à eux de manière personnalisée. Adapter l’ancien modèle marketing au nouvel environnement numérique permettrait de cibler des publicités sur le tennis aux membres d’un forum de discussion dédié à ce sport mais pas de fliquer les internautes pour savoir s’ils ont lu un article sur Roger Federer ou visité un site vendant des raquettes. Il faudra peut-être aussi se poser un jour la question de la gratuité des réseaux sociaux, à la fois pour y limiter l’anonymat et en réduire l’accessibilité à des éléments nuisibles.

5 Au premier rang desquelles le placement de proches et membres de sa famille à la direction de l’Entreprise, l’achat d’un avion privé qu’il fit personnaliser à son goût pour 60 millions de dollars, la location de ses propriétés à l’Entreprise, la vente pour plusieurs centaines de millions de dollars d’actions de WeWork avant son introduction en Bourse, le paiement par WeWork de 5,9 millions de dollars pour l’utilisation du mot “We” (annulé après qu’il eut été révélé) et divers conflits d’intérêt (sources : Shira Ovide, Bloomberg, 15 août 2019, et Gabriel Sherman, Vanity Fair, 23 septembre 2019).

6 Au premier rang desquels SoftBank qui investit au total 18,5 milliards de dollars dans WeWork, laquelle fut valorisée à moins de 8 milliards au terme de son sauvetage financier (source : Matt Levine, Bloomberg, 23 octobre 2019).

7 Laquelle divulgation fut le fait de Facebook, ce qui montre la totale incompréhension du Groupe vis-à-vis des personnes qui ne sont pas animées par sa vision messianique.

8 Ce sont pourtant autant de pratiques que Mark Zuckerberg, probablement embarrassé par cette admission, refusa de reconnaître lorsqu’il témoigna devant le Congrès américain en avril 2018 (source : Shira Ovide, Bloomberg, 12 avril 2018).

9 Citation mentionnée par Chris Hugues, cofondateur de Facebook, dans un éditorial paru dans The New York Times le 9 mai 2019.

10 Parce qu’elle surévalue les actions de Facebook contre les contenus nuisibles et pour le respect de la vie privée et occulte ses innombrables manquements à ce double égard, qu’elle intervient alors que le Groupe, sous le coup de scandales à répétition, avait désormais besoin de la puissance publique, dont il refusait toujours l’intervention en minorant les problèmes dont il reconnaît désormais qu’il ne peut plus les résoudre seul, pour l’aider à se sauver et qu’elle présente un ensemble de régulations minimales satisfaisantes à ses yeux pour tenter d’éviter d’être soumis à des règles plus drastiques (ainsi, par exemple, comme le releva Ben Thompson*, “Zuck” affirme-t-il qu’il faudrait protéger le droit des internautes à choisir comment leurs données privées sont utilisées mais pas comment elles sont collectées, ce qui ne remet pas en cause le cœur nucléaire du modèle économique de Facebook et nombre des problèmes qu’il pose). * Source : Stratechery, 2 avril 2019.

11 En novembre 2019, 8chan se rebaptisa 8kun et afficha de nouvelles règles de fonctionnement visant à interdire sur sa plate- forme les contenus illégaux aux Etats-Unis (source : Jon Fingas, Engadget, 4 novembre 2019). Il reste à voir dans quelle mesure ces bonnes résolutions seront mises en application.

12 Facebook a supprimé sa rubrique Trending Topics en juin 2018 (source : Jacob Kastrenakes, The Verge, 1er juin 2018).

13 En 2013, il fut le premier média d’information – ou, dans ce cas, de désinformation – à franchir le cap du milliard de vues sur YouTube (source : Alliance for Securing Democracy, 11 avril 2018). Il compte aujourd’hui plusieurs milliards de vues.

14 Après avoir testé l’élimination du nombre de “likes” sur une partie de sa plate-forme en Australie, au Brésil, au Canada, en Irlande, en Italie, au Japon et en Nouvelle-Zélande, Instagram commença à réaliser cette expérimentation aux Etats-Unis en novembre 2019 (source : Adrienne So, WIRED, 8 novembre 2019).

15 Elle demeure sur les comptes des marques et des influenceurs.

16 Comme à l’accoutumée, Jack Dorsey mit en œuvre cette décision de manière incohérente. Après avoir annoncé qu’il bannirait toutes les publicités politiques de Twitter et critiqué la politique de Mark Zuckerberg dans ce domaine, il présenta ses propres règles. Les publicités relatives à des élections, des élus ou des candidats sont interdites. Celles émanant d’organisations à but non lucratif pour promouvoir une cause (justice social, environnement…) sont autorisées, contrairement à ce qui avait d’abord été annoncé, à condition qu’elles n’évoquent pas de mesures politiques relatives à ces enjeux (elles seront également limitées dans leur capacité de micro-cibler les membres de Twitter). Enfin, les entreprises pourront diffuser des publicités pour promouvoir une cause à condition que celle-ci soit liée à leurs valeurs et que ces campagnes n’abordent pas non plus des décisions politiques. Suite à ces annonces, Twitter fut accusé de se laisser une grande latitude de choix dans les publicités politiques qu’il accepterait en fonction de ses intérêts ou préférences partisanes (sources : Emily Stewart, Vox-Recode, 15 novembre 2019, et The Editorial Board, The Wall Street Journal, 17 novembre 2019).

17 Il s’agit de l’une des recommandations effectuées par l’Aspen Institute et la Knight Foundation dans leur rapport “Crisis in Democracy: Renewing Trust in America“, paru en février 2019.

Ajouter un commentaire

Votre adresse email ne sera pas publiée

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Remonter

Logo créé par HaGE via Crowdspring.com

Crédits photos carrousel : I Timmy, jbuhler, Jacynthroode, ktsimage, lastbeats, nu_andrei, United States Library of Congress.

Crédits icônes : Entypo