Le débat se poursuit. Heureusement..
Les promesses et les risques liés à L'IA et ses applications multiples sont diversement évoquées. Certains, comme Jeff Bezos, ne peuvent être que plutôt optimistes. On le comprend...Il est vrai qu'on ne peut que l'être au vu de certaines applications, médicales notamment. Mais on ne doit pas être naïf. Dans certains secteurs, ce peut être une redoutable arme de guerre commerciale. Les dérives ne manquent pas. La défiance est parfois de mise. La piraterie en est parfois facilitée. La notion même d'"intelligence" commence à être sérieusement discutée. Le système ChatGpt est parfois peu contrôlable, souvent peu fiable. Entre rêve et cauchemar... Parfois aux limites du délire...comme ici.
Nous assistons à une révolution, mais pas sans nuages... . Les récents bonds en avant de l'intelligence dite artificielle suscitent des réactions parfois enthousiastes, mais aussi des réserves. A juste titre. Les nouvelles familles de générateurs de textes ne semblent pas engendrer de réticences dans certains domaines, où on y voit à un outil rapide, précieux et rentable pour effectuer certaines tâches jusque là dévolues aux hommes, même dans des domaines où une certaine créativité était requise. Pas seulement au niveau des plate formes qui ne jurent que par une numérisation renforcée. Pour le meilleur ou pour le pire....Aide à la décision parfois, dans des domaines complexes, mais aussi cyber-contrôles renforcés. L'ambiguïté est totale. On voit bien qu'il va falloir instaurer des règles, au niveau international, ce qui ne va pas être simple. _______Dans de multiples domaines, parfois les plus basiques, les plus triviaux, le recours à l'IA révèle vite ses limites et démystifie même le caractère "intelligent" qu'on lui attribue par convention. Il y a là des sources de nombreuses confusions. La prudence s'impose, à l'encontre de nombreux emballements, pour ne pas céder à la naïveté ou à la mystification parfois. Ce n'est pas madame Soleil non plus...Certains métiers, même dans le domaine artistique, seront durablement affectés par l'introduction sans précaution de l'IA générative. Déjà Google a supprimé 3000 emplois. Rançon du progrès? Sauf que cette innovation risque de progresser à vitesse géométrique, même dans des domaines que nous ne soupçonnons pas encore. On peut aller plus loin dans les réticences légitimes: "...Si l’on met de côté les gourous qui ont commencé à prophétiser la Singularité et à adorer une nouvelle idole sous la forme d’une Superintelligence Artificielle, de nombreuses personnalités ont pris la mesure des enjeux et se sont attelées à éveiller l’opinion. L’initiative la plus emblématique est peut-être celle du Future of Life Institute (FLI), fondé en 2014 par le physicien Max Tegmark et le fondateur de Skype, Jaan Tallin, sous le patronage de célébrités telles que Elon Musk et feu Stephen Hawking. Le FLI voit dans l’IA une extraordinaire source de bienfaits pour l’humanité, mais également une source de risque majeur, voire « existentiel ». Il exhorte, par conséquent, à promouvoir la recherche dans le domaine, encore embryonnaire, de la Sécurité de l’IA (AI Safety). Cette approche s’appuie sur le concept central d’alignement des valeurs (Value Alignment). Je cite : « Les IA fortement autonomes devraient être conçues de telle sorte que leurs objectifs et leurs comportements coïncident à tout moment avec les valeurs humaines », lesquelles sont, je cite toujours : « la dignité, les droits et libertés, la diversité culturelle ». L’un des attendus du développement de l’IA est de profiter et « donner du pouvoir » (empower) au plus grand nombre...." ______ Il y a peu, j'écrivais ceci, qui reste d'actualité: Dans l'univers varié de l'IA, omniprésent et discuté, un monde de nouveautés inédites, mais qui apparaît comme une menace dans certains secteurs d'activité. Ou du moins une ambigüité Un vrai tournant demandant une réflexion critique. Bruxelles s'y attelle tiùideùent, à l'échelle de l'Europe. Cela va très vite et il convient de faire le partage entre mythe et réalité, usages justifiés et contestables. Prudence! ___ GPT-4, notamment suscite des interrogations particulières, étant données ses applications actuelles et à venir et ses retombées dans le monde du travail et de la culture. Le système Gémini pose notamment des problèmes inédits, qu'il importe d'analyser et de résoudre. Certaines positions, un peu trop enthousiastes, méritent d'être analysées et remises en question, du moins partiellement. Bientôt ce sera dans la poche. C'est l'esprit critique qui peut être remis en question. Mais pas seulement. Avec un accès presque gratuit, on comprend qu'il importe de prendre les devants. Mais comment? L'enthousiasme béat n'est pas de mise. Le risque est grand d'un chaos informationnel inédit. "...En permettant de manipuler les contenus à l’envi, l’intégration de systèmes d’IA générative aux smartphones risque de provoquer la prolifération de deepfakes et d’accentuer la diffusion de ces contenus faux mais crédibles. Ceci pourrait compromettre davantage la crédibilité des informations en ligne et entraîner un chaos informationnel généralisé. Sans compter un risque qui peut s’avérer mortel : l’explosion potentielle du cyberharcèlement, notamment via le « deepfake porn », une pratique violente qui a émergé en 2017 et qui va se trouver « facilitée » avec l’arrivée de l’IA générative dans les smartphones. Les modèles génératifs peuvent créer des données : des images par exemple, qui ressemblent de manière frappante à des données réelles. Cela peut donc être utilisé de manière malveillante pour créer des contrefaçons, des faux, des contenus trompeurs que ces derniers soient textuels et servent par exemple des arnaques comme le phishing, ou visuels : montages photos, montages vidéo (DeepFake). Par ailleurs, des données erronées peuvent être fabriquées par un modèle génératif malveillant. Celles-ci pourraient être utilisées dans les corpus d’apprentissage des futurs grands modèles de langage (large language models ou LLM, dont ChatGPT est l’exemple le plus connu) ou d’autres modèles d’intelligence artificielle. En effet, certains modèles génératifs peuvent se révéler vulnérables à des « attaques par exemples contradictoires » (adversarial attacks, dont l’exemple classique pour un modèle de machine learning est d’introduire de fausses données dans la base de données d’apprentissage, provoquant un véhicule à voir une limitation de vitesse à la place d’un panneau-stop). L’évolution de ce type d’adversarial attack cible désormais les IA génératives, par exemple avec le data poisoning. " Il importe de démystifier le big data. Tout juste des outils imparfaits, surtout dans le domaine des choses humaines.Que ce soit dans celui de la justice, de l'éducation, etc... Qui peuvent être un danger pour la démocratie:
"La liberté d’expression, comme nous l’entendions jusqu’à présent, reposait sur l’idée que des humains parlaient à d’autres humains. Il y a toujours eu une asymétrie entre ceux qui parlent et ceux qui écoutent, mais cette asymétrie demeurait dans le cadre de l’humanité. Qu’en est-il de cette asymétrie quand ce sont des machines et des algorithmes qui s’adressent aux humains ? Quand les humains qui reçoivent les messages n’ont aucune idée de ce que les machines savent sur eux et de la raison pour laquelle ils les reçoivent. En 2016, la société Cambridge Analytica innovait en permettant aux organisateurs de la campagne du Brexit d’élaborer et diffuser dans une quinzaine de communautés des messages anti-européens ciblés (“L’Europe, c’est l’impôt”, pour la City, “L’Europe c’est le chômage” et “l’immigration” pour les ouvriers et les chômeurs du nord, “les quotas de pêche” pour les pêcheurs, « la fermeture des services de la NHS » pour les malades), alors que les “remainers”, qui défendaient le maintien dans l’Union Européenne, tentaient de proposer un discours unique, global et cohérent. C’est ainsi que la vie politique change de nature. L’agenda de la campagne électorale compte beaucoup moins. La bataille pour le contrôler perd de son importance. Il y a encore des débats ou des échanges d’arguments entre responsables politiques, mais l’important se passe en-deçà ou au-delà de l’espace public. Comme le souligne Lessig : « L’économie moderne de la liberté d’expression n’est pas pilotée par des éditeurs qui cherchent à publier ce que leurs lecteurs pourraient comprendre, mais par des machines qui fabriquent un discours fondé sur le comportement que l’on désire obtenir. Dans la plupart des cas, ce comportement est simplement commercial : cliquer sur une publicité. De façon plus préoccupante, ce comportement va parfois au-delà du commercial : prendre d’assaut le Capitole ». Que devient la démocratie si une campagne électorale cesse d’être ce moment où la communauté nationale, par le débat public et la controverse, décide collectivement de son destin ? Si elle devient la résultante de stratégies d’investissements publicitaires fondées sur un micro-découpage de l’opinion et des micromanipulations quotidiennes ? Que devient, même, la Nation ? La fragmentation de la communauté nationale en de multiples cibles, l’envoi de messages spécifiques à ces micro-segments, dans le secret et sans contradiction, interdisent une réelle délibération politique, préalable au vote. La démocratie est née dans l’agora. Elle a besoin d’un espace public qui soit réellement public. Le microciblage et la publicité politique personnalisée désintègrent l’espace public. Certes le RGPD (règlement général sur la protection des données) et l’interdiction de la publicité politique protègent l’Europe de certaines de ces pratiques. Un parti politique français ne pourrait pas constituer une base de données de près de 200 informations différentes sur 80 % du corps électoral pour cibler ses messages, comme le font tous les candidats à la présidentielle américaine. Mais cette protection est largement insuffisante. Les réseaux sociaux et les moteurs de recherche dessinent le territoire numérique dans lequel nous évoluons, sans possibilité d’en sortir, ni, bien sûr, de débattre collectivement des règles du jeu pour choisir celles que nous accepterons. Il ne s’agit pas seulement de publicité : leurs algorithmes nous proposent nos “amis”, filtrent les contenus qui nous sont présentés, choisissent, sur YouTube, les “deuxièmes” vidéos proposées, ou, sur Facebook, les 12% seulement de contenus de nos amis qui sont visibles. Sur Tik Tok, ils sélectionnent les vidéos non datées qui sont proposées, quand nous cherchons un hashtag. Ils nous constituent en cohortes pour les annonceurs. Et la somme de ces décisions construit une camisole algorithmique propice aux stratégies d’influence politique invisibles dans l’espace public. Cette machinerie peut fonctionner malgré l’interdiction de la publicité politique. Les manipulateurs peuvent adresser des messages non publicitaires, ou non politiques, à des communautés identifiées comme potentiellement réceptives. La société Cambridge Analytica a amplement raconté la manière dont elle a inversé le cours d’une élection à Trinidad et Tobago grâce à une campagne de promotion de l’abstention, dont elle savait qu’elle aurait un impact différencié selon les ethnies. Les hackers et les bots d’Evgueni Prigojine sont très friands de la thématique de la défense des animaux, par exemple. Et nous ne sommes qu’au début d’un processus dont les perspectives sont vertigineuses. Une expérience de psychologie sur les « deepfake » a montré qu’en croisant légèrement les traits d’un homme ou d’une femme politique avec ceux d’une personne, cette dernière trouve le politique plus sympathique et est plus encline à lui accorder sa confiance. Qu’est-ce qui empêchera de concevoir une stratégie présentant à chaque électeur une image du candidat légèrement mêlée à la sienne ? ....Sans aller jusqu’à ces scénarios extrêmes, pourtant probables, la publicité ciblée et les algorithmes changent déjà en profondeur les règles de la vie politique. Avec quelques millions d’euros d’investissements, il est possible d’influencer significativement le résultat d’une élection dans de nombreux pays...." À lire aussi : Appareils connectés et cybersécurité : imaginer des attaques pour apprendre à se défendre ___________________ D'une façon générale, Les algorithmes. Pour le meilleur et pour le pire. ___________________
Aucun commentaire:
Enregistrer un commentaire