Le MILLION de visites est atteint. Merci de vos visites et de votre indulgence. En route pour la suite...si Dieu me prête vie!

lundi 9 mars 2026

Quand l'IA entre en guerre

                           Malgré ses exploits actuels et attendus, certaines applications de l'IA et de ses dérivés commence sérieusement inquiéter des spécialistes en vue, qui n'hésitent plus à faire part de leur réserve, voire de leurs inquiétudes,...Il y a un revers de la médaille. Comme dans toute création humaine, les systèmes actuels et plus encore futurs dérivés des formes très élaborées de IA, qui n'en n'est qu'à ses débuts, peuvent échapper au contrôle de leur concepteurs et/ou de leur réalisateurs. Ce n'est pas une fiction à la Frankenstein ou un cauchemar possible en soi. L'IA reste ambivalente.   Pour le meilleur ou pour le pire...


                                                                                                     Dans ses usages guerriers, dans le contexte actuel et à venir, il y a lieu de s'interroger sur la déresponsabilisation que certains de ses usages entraînent, sur le terrain ou dans les états majors. C'est ce qui était en question hier soir, dans l'excellent débat sur France 5, s'inspirant de réflexions de haut niveau de certains spécialistes de la question, comme Yoshua Bengio, soulignant l'urgence de réglementer au plus vite et à large échelle. Et au delà...                                                   Il déclare: "..« Aujourd’hui, il y a des défauts de fabrication dans la manière dont on fait les intelligences artificielles [IA] qui m’inquiètent beaucoup. » Tel Robert Oppenheimer (1904-1967), qui alerta sur la bombe atomique qu’il avait contribué à créer, Yoshua Bengio s’inquiète des risques de l’IA et a créé l’association LoiZéro pour mettre au point des IA « sûres et fiables par construction ».« Je ne me comparerai pas à Oppenheimer, explique ce professeur au département d’informatique et de recherche opérationnelle de l’université de Montréal, au Canada, dans un entretien au Monde. Ce qui me motive, c’est surtout penser à l’avenir de l’humanité, l’avenir de mes enfants. Même si les événements catastrophiques ont une probabilité très faible, mettons de 1 %, c’est important de les éviter. » Yoshua Bengio, 61 ans, n’est pas un « doomer », un prophète de l’apocalypse. Il est l’un des pères de l’intelligence artificielle. Avec le Français Yann Le Cun et le Britannique Geoffrey Hinton, ce Canadien d’origine franco-marocaine a reçu, en 2019, le prix Turing, l’équivalent du Nobel pour l’informatique.   Dans son combat, il cherche des alliés. Pas auprès du président américain, Donald Trump – il n’a pas demandé de rendez-vous à la Maison Blanche : « Je ne sais pas quelle influence je pourrais avoir, honnêtement », reconnaît-il. Pas en Chine, lancée dans une course contre les Etats-Unis. Mais d’abord auprès des démocraties libérales, que sont le Canada, l’Australie, le Japon, la Corée du Sud et les pays d’Europe, pour développer une IA plus éthique. La partie n’est pas gagnée. « L’Europe doit se réveiller, met en garde M. Bengio. Les signaux politiques devraient être assez clairs pour se mobiliser comme bloc parce qu’individuellement les pays ne peuvent pas faire grand-chose que ce soit en IA ou en géopolitique. Ce n’est pas suffisant de réglementer. Il faut avoir des solutions techniques. Et si l’Europe n’a pas d’IA qui soit compétitive avec celle des Américains et des Chinois, elle ne pourra pas être à la table de la discussion sur la manière d’éviter ces catastrophes. »...                                                                       Il n'est pas le seul à interpeler les responsables politiques ou industriels.  Alex Stamos aussi. Et d'autres.  La guerre devient accro à ChatGPT et risque de le devenir toujours plus. Pour quels résultas. On peut l'imaginer. Palantir est déjà à l'oeuvre...en Iran,pour des tâches qui ne sont pas que de surveillance... Qui l'arrêtera?                              Les inquiétudes de Bengio ne sont pas du vent....  Une supervision citoyenne s'impose.
______ ____

Aucun commentaire: