lundi 14 juin 2021

Ils sont partout

Les algorithmes. Pour le meilleur et pour le pire. 

               Simples ou sophistiqués, ils sont au coeur des systèmes informatiques, qui ne sont que des modes de calcul de plus en plus performants. Ils sont en action au coeur de nos portables pour simplifier, accélérer et anticiper nos recherches. Ils peuvent aider à prévoir comme en météorologie et même à diagnostiquer, comme en médecine de pointe...Ils ont un avenir quasi infini et souvent prometteur.             Mais c'est certains de leurs usages qui posent problème, parfois de manière très problématique.  Ce ne sont pas des outils neutres. Ils nécessitent d'être maîtrisés, sous peine de dérives sociales et humaines pouvant être graves. Parler de nécessaire contrôle éthique est tout à fait approprié dans certains domaines.                        La numérisation à outrance et sans discernement entraîne des danger méconnus.

                                 Il importe de démystifier le big data.
 Tout juste des outils imparfaits, surtout dans le domaine des choses humaines.
    Que ce soit dans celui de la justice, de l'éducation, etc...
       Qui peuvent être un danger pour la démocratie:
       Révoltée par la responsabilité des algorithmes dans la crise des subprimes, elle (Cathy) a ensuite démissionné pour rallier les rangs d'Occupy Wall Street, dont elle fut une figure. Depuis, cette militante sonne l'alerte sur les méfaits méconnus de ces outils mathématiques de sélection ou d'évaluation dans les services publics ou, pour nous cibler, dans les bureaux des multinationales. Elle était de passage à Paris à l'occasion de la publication de son livre en français.
Une critique de la "raison numérique" s'impose plus que jamais, comme le souligne Eric Sadin ou Dominique Cardon.        Dans le domaine politique, leur usage débridé comporte de réelles menaces démocratiques
              "La liberté d’expression, comme nous l’entendions jusqu’à présent, reposait sur l’idée que des humains parlaient à d’autres humains. Il y a toujours eu une asymétrie entre ceux qui parlent et ceux qui écoutent, mais cette asymétrie demeurait dans le cadre de l’humanité. Qu’en est-il de cette asymétrie quand ce sont des machines et des algorithmes qui s’adressent aux humains ? Quand les humains qui reçoivent les messages n’ont aucune idée de ce que les machines savent sur eux et de la raison pour laquelle ils les reçoivent.     En 2016, la société Cambridge Analytica innovait en permettant aux organisateurs de la campagne du Brexit d’élaborer et diffuser dans une quinzaine de communautés des messages anti-européens ciblés (“L’Europe, c’est l’impôt”, pour la City, “L’Europe c’est le chômage” et “l’immigration” pour les ouvriers et les chômeurs du nord, “les quotas de pêche” pour les pêcheurs, « la fermeture des services de la NHS » pour les malades), alors que les “remainers”, qui défendaient le maintien dans l’Union Européenne, tentaient de proposer un discours unique, global et cohérent.     C’est ainsi que la vie politique change de nature. L’agenda de la campagne électorale compte beaucoup moins. La bataille pour le contrôler perd de son importance. Il y a encore des débats ou des échanges d’arguments entre responsables politiques, mais l’important se passe en-deçà ou au-delà de l’espace public. Comme le souligne Lessig : « L’économie moderne de la liberté d’expression n’est pas pilotée par des éditeurs qui cherchent à publier ce que leurs lecteurs pourraient comprendre, mais par des machines qui fabriquent un discours fondé sur le comportement que l’on désire obtenir. Dans la plupart des cas, ce comportement est simplement commercial : cliquer sur une publicité. De façon plus préoccupante, ce comportement va parfois au-delà du commercial : prendre d’assaut le Capitole ».         Que devient la démocratie si une campagne électorale cesse d’être ce moment où la communauté nationale, par le débat public et la controverse, décide collectivement de son destin ? Si elle devient la résultante de stratégies d’investissements publicitaires fondées sur un micro-découpage de l’opinion et des micromanipulations quotidiennes ? Que devient, même, la Nation ? La fragmentation de la communauté nationale en de multiples cibles, l’envoi de messages spécifiques à ces micro-segments, dans le secret et sans contradiction, interdisent une réelle délibération politique, préalable au vote. La démocratie est née dans l’agora. Elle a besoin d’un espace public qui soit réellement public. Le microciblage et la publicité politique personnalisée désintègrent l’espace public.                             Certes le RGPD (règlement général sur la protection des données) et l’interdiction de la publicité politique protègent l’Europe de certaines de ces pratiques. Un parti politique français ne pourrait pas constituer une base de données de près de 200 informations différentes sur 80 % du corps électoral pour cibler ses messages, comme le font tous les candidats à la présidentielle américaine. Mais cette protection est largement insuffisante. Les réseaux sociaux et les moteurs de recherche dessinent le territoire numérique dans lequel nous évoluons, sans possibilité d’en sortir, ni, bien sûr, de débattre collectivement des règles du jeu pour choisir celles que nous accepterons. Il ne s’agit pas seulement de publicité : leurs algorithmes nous proposent nos “amis”, filtrent les contenus qui nous sont présentés, choisissent, sur YouTube, les “deuxièmes” vidéos proposées, ou, sur Facebook, les 12% seulement de contenus de nos amis qui sont visibles. Sur Tik Tok, ils sélectionnent les vidéos non datées qui sont proposées, quand nous cherchons un hashtag.  Ils nous constituent en cohortes pour les annonceurs. Et la somme de ces décisions construit une camisole algorithmique propice aux stratégies d’influence politique invisibles dans l’espace public. Cette machinerie peut fonctionner malgré l’interdiction de la publicité politique. Les manipulateurs peuvent adresser des messages non publicitaires, ou non politiques, à des communautés identifiées comme potentiellement réceptives. La société Cambridge Analytica a amplement raconté la manière dont elle a inversé le cours d’une élection à Trinidad et Tobago grâce à une campagne de promotion de l’abstention, dont elle savait qu’elle aurait un impact différencié selon les ethnies. Les hackers et les bots d’Evgueni Prigojine sont très friands de la thématique de la défense des animaux, par exemple. Et nous ne sommes qu’au début d’un processus dont les perspectives sont vertigineuses. Une expérience de psychologie sur les « deepfake » a montré qu’en croisant légèrement les traits d’un homme ou d’une femme politique avec ceux d’une personne, cette dernière trouve le politique plus sympathique et est plus encline à lui accorder sa confiance. Qu’est-ce qui empêchera de concevoir une stratégie présentant à chaque électeur une image du candidat légèrement mêlée à la sienne ?  ....Sans aller jusqu’à ces scénarios extrêmes, pourtant probables, la publicité ciblée et les algorithmes changent déjà en profondeur les règles de la vie politique. Avec quelques millions d’euros d’investissements, il est possible d’influencer significativement le résultat d’une élection dans de nombreux pays...."   __________________

Aucun commentaire:

Enregistrer un commentaire