mardi 11 février 2025

IA et ChatGPT

On en (re)parle

                  Les choses s'accélèrent. Les débats en cours créent l'effervescence, alimentent aussi les fantasmes et les spéculations. L'enthousiasme est palpable dans les milieux industriels, qui misent sur des perspectives prometteuses, hautement lucratives. Dans d'autres secteurs, l'enthousiasme béat n'est pas de mise. Il est prudent  de ne pas être simpliste et de ne pas sombrer dans le manichéisme. Des mises en garde sont toujours nécessaires, étant donné l'importance des enjeux, seulement entrevus. Notamment dans le domaine scolaire. Un outil multiplicateur ambivalent. Des problèmes humains peuvent en dépendre négativement. De potentielles dérives nous attendent. D'où l'importance de l'engagement éthique. Certaines activités, comme le journalisme et dans le domaine de l'art, on s'interroge légitimement. Des batailles se préparent. Cedric Villani plaide pour un débat de fond. Comment encadrer démocratiquement les aventures en cours et à venir? Pour une régulation.  _______  [Pas drôle] ____


            Les limites doivent être soulignées, dans ce domaine en gestation, dont on entrevoit les biais et les dérives possibles. Il y a des soucis à se faire. On oublie parfois que Chatgpt  n'est qu'un outil sans conscience:                                                                                                                                                 "...En 2023, le prix Nobel Geoffrey Hinton a démissionné de son poste chez Google pour pouvoir relayer plus librement ses craintes au sujet de l’IA, dont il a contribué à créer la forme moderne. Au New York Times, il a dit son inquiétude devant l’avalanche d’infox et d’images truquées dont il anticipe le déferlement.            Dans une autre interview lors de sa remise de prix, il a dessiné un monde où la destruction d’emplois serait inévitable, face aux machines capables de traduire, de créer et de parler comme des humains. Surtout, il a exprimé son angoisse devant « ces choses » qui pourraient « devenir incontrôlables et prendre le contrôle » de la civilisation, nous enjoignant de « trouver s’il existe une manière de faire face à cette menace »....« Pour obtenir une machine consciente, il faut qu’elle puisse exprimer des émotions, des désirs. On en est loin. La technologie et les sciences actuelles ne le permettent absolument pas », balaye Jean-Gabriel Ganascia, qui aime comparer les grands modèles de langage à « des robots bavards ». Des machines statistiques joliment déguisées.                                                                    « Quant à la question de dépasser l’intelligence humains, cela demanderait que la machine accumule des facultés mentales, qu’on ne sait que simuler, et dont on n’a aucune idée de la manière dont elles pourraient s’accumuler. Cette idée est non fondée », assure-t-il.  « Nous projetons sur cette machine des capacités et des connaissances dont elle ne dispose pas, estime elle aussi Laurence Devillers. Elle ne fait qu’aligner des suites de mots en suivant notre prompt et nos intentions, sans intention et sans opinion propre. »                                                                                                                      C’est le « père » de l’IA moderne qui en dit le plus de mal. À propos de l’intelligence artificielle générative, Yann Le Cun avait dès 2023 une formule expéditive et cruelle, mais éclairante : « Personne ne peut garantir que ce qui sort de la machine est factuel, non toxique, compréhensible. »   Le chercheur et vice-président de Meta estime que le modèle technologique des LLM est une impasse et enjoint à ses pairs de chercher d’autres voies. Lui-même travaille depuis deux ans sur un autre modèle, dont il entrevoit l’aboutissement dans seulement de très longues années.vvvvCar tout le monde le sait, bien que presque personne ne le formule clairement : l’IA générative, qui aligne les mots statistiquement les plus probables, commet des erreurs, parfois beaucoup d’erreurs. Demander début février 2025 aux robots disponibles qui est le premier ministre français expose par exemple à se faire répondre qu’il s’agit d’Élisabeth Borne (ChatGPT et DeepSeek) ou Gabriel Attal (Claude). Ce sont les fameuses « hallucinations », un terme promu par les géants de la tech pour humaniser leurs créations et rendre acceptables leurs déraillements.                     Selon l’entreprise de sécurité NewsGuard, qui soumet ces outils à des tests rigoureux, le taux d’échec moyen des dix principaux chatbots était de 62 % (d’erreurs ou de non-réponses) en décembre. Celui de DeepSeek un mois plus tard était de 83 %, et dans trois cas sur dix, le nouveau robot « a relayé la position du gouvernement chinois sans qu’il lui ait été demandé quoi que ce soit concernant la Chine »....
La rapporteuse spéciale sur les formes contemporaines de racisme du Haut-Commissariat des droits de l’homme de l’ONU a rappelé l’été dernier que l’IA générative n’était ni neutre ni objective.
          Les erreurs des machines dérivent bien souvent vers des biais racistes ou sexistes. Comme l’a résumé à Mediapart le journaliste technocritique Thibault Prévost, « plus on s’éloigne de la médiane, plus le modèle va avoir du mal à prédire et à modéliser le monde ». Le problème étant que « la médiane politique du monde correspond à la bourgeoisie, à la blanchité, au genre masculin ».    Dans une tribune parue dans Le Monde, un collectif d’ONG, dont Amnesty International et la Ligue des droits de l’homme, dénonce une IA qui « perpétue les stéréotypes, renforce les inégalités sociales et limite l’accès aux ressources et opportunités » des « populations les plus vulnérables et les plus discriminées ». Les exemples sont déjà nombreux..."   
  _____ Le numérique et le Congo_______________________                                                                                                                            

Aucun commentaire:

Enregistrer un commentaire