top of page
  • Stéphan Le Doaré

ChatGPT devient un garnement …

Il ne se passe pas un jour sans qu’on voie une nouvelle utilisation utilisant ChatGPT. Récemment, c’est AXA, une société majeure dans les assurances, qui intégrait le moteur GPT dans sa propre construction informatique destinée d’abord à ses agents en interne, pour, pourquoi pas, l’utiliser ensuite pour l’ensemble de sa clientèle (basé sur openAI et Azure, la solution AXA secure GPT permettra aux 140.000 collaborateurs de générer dans quelques mois des textes et des images…)

Une des problématiques sur ces LLM (ou Large Language Model, type d'IA spécialisé dans la compréhension et la génération de langage humain) est d’élargir toujours plus leur compréhension du monde et la finesse des interactions, bref de rendre plus fiables les réponses de ces LLM. Pour ce faire, les évolutions se succèdent et de ChatGPT 3 à ChatGPT 4, il s’est passé à peine 6 mois (lancement de ChatGPT 3 fin 2022, mise à jour ChatGPT 3.5 en mars 2023 et juin 2023 pour ChatGPT 4). En attendant la version 5 de ChatGPT prévue pour la fin d’année 2023, il est intéressant de se pencher sur les qualités et les défauts de ces LLM, mais plus encore, sur les biais ou mieux encore, sur le « système éducatif » mis en place lors des mises à jour de ces programmes.


Car outre les montées de version qui touchent à l’ajout de fonctionnalités (la plus connue entre les versions 3 et 4 étant la reconnaissance d’images en plus de la simple reconnaissance écrite), OpenIA, la société éditrice, procède régulièrement à des mises à jour de chaque version pour faire bénéficier de l’enrichissement apporté par les utilisateurs eux-mêmes.

Nous avons donc affaire à des I.A. avec un moteur qui reçoit des montées de version (les versions 3, 3.5, 4, bientôt 5) et des données d’apprentissage qui proviennent d’abord du web avec des valeurs « finies » (la base de données de chatGPT 3 pèse 17 terabytes, celle de chatGPT4 nécessite 45Gb de plus) et des mises à niveau qui ajoutent des données ou des réglages induits par l’apprentissage des utilisateurs.

Il n’existe pas d’école pour les I.A.

Comme il n’existe pas d’école pour les I.A., il est compliqué de les éduquer. Rappelons-nous le cas de cette I.A. conversationnelle de 2016, Tay, retirée de twitter où elle interagissait avec des internautes, après seulement 16 heures d’utilisation. Un jeu de données mal ficelé et trop petit faisait qu’elle ne « connaissait » pas certaines populations qui donc, tout simplement, n’existaient pas pour elle. L’I.A. devenue raciste et impossible à corriger a alors été stoppée.

Il n’est pas envisageable d’éduquer une I.A. de la même façon qu’un être humain. Malgré le mot « Intelligence », ces logiciels ne fonctionnent pas comme un cerveau humain. Et chatGPT n’échappe pas à la règle.

Une étude de l’Université de Berkeley vient de montrer que les deux versions actuelles (chatGPT 3.5 pour la version gratuite et chatGPT 4 pour la version payante) présentaient des régressions dans les réponses apportées, entre mars 2023 et juin 2023. Ainsi, après mise à jour, les I.A. donnaient pour certains sujets plus de réponses fausses en juin.

ces logiciels ne fonctionnent pas comme un cerveau humain

C’est un peu la mise face au réel qui met en évidence les biais ou les datasets insuffisants d’une part, et l’incapacité à éduquer ces I.A. d’autre part.

Ainsi, d’un côté, on peut applaudir l’apparition d’algorithmes surpuissants sur la détection et la construction de phrases, mais d’un autre côté, on ne peut pas se passer aujourd’hui d’un système de supervision de ces outils, avec un risque de faillite et d’erreur qui augmente au cours du temps.

On ne peut pas se passer aujourd’hui d’un système de supervision de ces outils

Quand on voit arriver d’autres projets encore plus ambitieux tels que X.ia, il faut, encore et toujours, insister sur la nuance et le sens critique pour utiliser ces outils pour ce qu’ils sont et savoir s’en libérer quand il le faut, car à la différence du bon vin qui se bonifie avec le temps, on constate que ces I.A. s’abrutissent au cours du temps.


Faut-il y voir un reflet de la société numérique, je vous laisse juge…

34 vues0 commentaire

Posts récents

Voir tout
bottom of page