lundi 18 décembre 2023

IA en pointe

 Un grand pas en avant?

                                    Dans l'univers varié de l'IA, omniprésent et discuté, un monde de nouveautés inédites, mais qui apparaît comme une menace dans certains secteurs d'activité. Ou du moins une ambigüité Un vrai tournant demandant une réflexion critique. Bruxelles s'y attelle, à l'échelle de l'Europe. Cela va très vite et il convient de faire le partage entre mythe et réalité, usages justifiés et contestables. Prudence! ___ GPT-4, notamment suscite des interrogations particulières, étant données ses applications actuelles et à venir et ses retombées dans le monde du travail et de la culture. Le système Gémini pose notamment des problèmes inédits, qu'il importe d'analyser et de résoudre. Certaines positions, un peu trop enthousiastes, méritent d'être analysées et remises en question, du moins partiellement. Bientôt ce sera dans la poche. C'est l'esprit critique qui peut être remis en question. Mais pas seulement. Avec un accès  presque gratuit, on comprend qu'il importe de prendre les devants. Mais comment? L'enthousiasme béat n'est pas de mise.


   
                                                                                                                     Le risque est grand d'un chaos informationnel inédit. "...En permettant de manipuler les contenus à l’envi, l’intégration de systèmes d’IA générative aux smartphones risque de provoquer la prolifération de deepfakes et d’accentuer la diffusion de ces contenus faux mais crédibles. Ceci pourrait compromettre davantage la crédibilité des informations en ligne et entraîner un chaos informationnel généralisé.  Sans compter un risque qui peut s’avérer mortel : l’explosion potentielle du cyberharcèlement, notamment via le « deepfake porn », une pratique violente qui a émergé en 2017 et qui va se trouver « facilitée » avec l’arrivée de l’IA générative dans les smartphones. Les modèles génératifs peuvent créer des données : des images par exemple, qui ressemblent de manière frappante à des données réelles. Cela peut donc être utilisé de manière malveillante pour créer des contrefaçons, des faux, des contenus trompeurs que ces derniers soient textuels et servent par exemple des arnaques comme le phishing, ou visuels : montages photos, montages vidéo (DeepFake). Par ailleurs, des données erronées peuvent être fabriquées par un modèle génératif malveillant. Celles-ci pourraient être utilisées dans les corpus d’apprentissage des futurs grands modèles de langage (large language models ou LLM, dont ChatGPT est l’exemple le plus connu) ou d’autres modèles d’intelligence artificielle.   En effet, certains modèles génératifs peuvent se révéler vulnérables à des « attaques par exemples contradictoires » (adversarial attacks, dont l’exemple classique pour un modèle de machine learning est d’introduire de fausses données dans la base de données d’apprentissage, provoquant un véhicule à voir une limitation de vitesse à la place d’un panneau-stop).  L’évolution de ce type d’adversarial attack cible désormais les IA génératives, par exemple avec le data poisoning.  "                                                       
À lire aussi : Appareils connectés et cybersécurité : imaginer des attaques pour apprendre à se défendre    ___________________

Aucun commentaire:

Enregistrer un commentaire