Ça va jazzer

https://www.jazzradio.fr/

mardi 16 avril 2024

IA générative en question

 Une évolution (ou révolution) sans nuages?

                  Pas si simple. Les récents bonds en avant de l'intelligence dite artificielle suscitent des réactions parfois enthousiastes, mais aussi des réserves. A juste titre. Les nouvelles familles de générateurs de textes ne semblent pas engendrer de réticences dans certains domaines, où on y voit à un outil rapide, précieux et rentable pour effectuer certaines tâches jusque là dévolues aux hommes, même dans des domaines où une certaine créativité était requise. Pas seulement au niveau des plate formes qui ne jurent que par une numérisation renforcée. Pour le meilleur ou pour le pire....Aide à la décision parfois, dans des domaines complexes, mais aussi cyber-contrôles renforcés. L'ambiguïté est totale. On voit bien qu'il va falloir instaurer des règles, au niveau international, ce qui ne va pas être simple.                                        _______Dans de multiples domaines, parfois les plus basiques, les plus triviaux, le recours à l'IA révèle vite ses limites et démystifie même le caractère "intelligent" qu'on lui attribue par convention. Il y a là des sources de nombreuses confusions. La prudence s'impose, à l'encontre de nombreux emballements, pour ne pas céder à la naïveté ou à la mystification parfois. Ce n'est pas madame Soleil non plus...Certains métiers, même dans le domaine artistique, seront durablement affectés par l'introduction sans précaution de l'IA générative. Déjà  Google a supprimé 3000 emplois. Rançon du progrès? Sauf que cette innovation risque de progresser à vitesse géométrique, même dans des domaines que nous ne soupçonnons pas encore. On peut aller plus loin dans les réticences légitimes:                                                                                                                                   "...Si l’on met de côté les gourous qui ont commencé à prophétiser la Singularité et à adorer une nouvelle idole sous la forme d’une Superintelligence Artificielle, de nombreuses personnalités ont pris la mesure des enjeux et se sont attelées à éveiller l’opinion.   L’initiative la plus emblématique est peut-être celle du Future of Life Institute (FLI), fondé en 2014 par le physicien Max Tegmark et le fondateur de Skype, Jaan Tallin, sous le patronage de célébrités telles que Elon Musk et feu Stephen Hawking.  Le FLI voit dans l’IA une extraordinaire source de bienfaits pour l’humanité, mais également une source de risque majeur, voire « existentiel ».  Il exhorte, par conséquent, à promouvoir la recherche dans le domaine, encore embryonnaire, de la Sécurité de l’IA (AI Safety). Cette approche s’appuie sur le concept central d’alignement des valeurs (Value Alignment).  Je cite : « Les IA fortement autonomes devraient être conçues de telle sorte que leurs objectifs et leurs comportements coïncident à tout moment avec les valeurs humaines », lesquelles sont, je cite toujours : « la dignité, les droits et libertés, la diversité culturelle ». L’un des attendus du développement de l’IA est de profiter et « donner du pouvoir » (empower) au plus grand nombre...."                                                                                                           ______  Il y a peu, j'écrivais ceci, qui reste d'actualité: Dans l'univers varié de l'IA, omniprésent et discuté, un monde de nouveautés inédites, mais qui apparaît comme une menace dans certains secteurs d'activité. Ou du moins une ambigüité Un vrai tournant demandant une réflexion critique. Bruxelles s'y attelle, à l'échelle de l'Europe. Cela va très vite et il convient de faire le partage entre mythe et réalité, usages justifiés et contestables. Prudence! ___ GPT-4, notamment suscite des interrogations particulières, étant données ses applications actuelles et à venir et ses retombées dans le monde du travail et de la culture. Le système Gémini pose notamment des problèmes inédits, qu'il importe d'analyser et de résoudre. Certaines positions, un peu trop enthousiastes, méritent d'être analysées et remises en question, du moins partiellement. Bientôt ce sera dans la poche. C'est l'esprit critique qui peut être remis en question. Mais pas seulement. Avec un accès  presque gratuit, on comprend qu'il importe de prendre les devants. Mais comment? L'enthousiasme béat n'est pas de mise.


   
                                                                                                                     Le risque est grand d'un chaos informationnel inédit. "...En permettant de manipuler les contenus à l’envi, l’intégration de systèmes d’IA générative aux smartphones risque de provoquer la prolifération de deepfakes et d’accentuer la diffusion de ces contenus faux mais crédibles. Ceci pourrait compromettre davantage la crédibilité des informations en ligne et entraîner un chaos informationnel généralisé.  Sans compter un risque qui peut s’avérer mortel : l’explosion potentielle du cyberharcèlement, notamment via le « deepfake porn », une pratique violente qui a émergé en 2017 et qui va se trouver « facilitée » avec l’arrivée de l’IA générative dans les smartphones. Les modèles génératifs peuvent créer des données : des images par exemple, qui ressemblent de manière frappante à des données réelles. Cela peut donc être utilisé de manière malveillante pour créer des contrefaçons, des faux, des contenus trompeurs que ces derniers soient textuels et servent par exemple des arnaques comme le phishing, ou visuels : montages photos, montages vidéo (DeepFake). Par ailleurs, des données erronées peuvent être fabriquées par un modèle génératif malveillant. Celles-ci pourraient être utilisées dans les corpus d’apprentissage des futurs grands modèles de langage (large language models ou LLM, dont ChatGPT est l’exemple le plus connu) ou d’autres modèles d’intelligence artificielle.   En effet, certains modèles génératifs peuvent se révéler vulnérables à des « attaques par exemples contradictoires » (adversarial attacks, dont l’exemple classique pour un modèle de machine learning est d’introduire de fausses données dans la base de données d’apprentissage, provoquant un véhicule à voir une limitation de vitesse à la place d’un panneau-stop).  L’évolution de ce type d’adversarial attack cible désormais les IA génératives, par exemple avec le data poisoning.  "                                                       
À lire aussi : Appareils connectés et cybersécurité : imaginer des attaques pour apprendre à se défendre    ___________________

Aucun commentaire: