Lors de ma dernière conférence au sujet de l'Intelligence Artificielle appliquée au secteur médico-social, une question nouvelle m'a été posée. Habituellement, les questions en fin de session tournaient toujours autour de la conscience, ce fameux moment de singularité où l'I.A. sera capable de conscience d'elle-même et des autres, de son environnement et de ses capacités. Ce moment attendu et redouté arrime les uns aux autres les fantasmes les plus fous des romans de science-fiction et les espoirs que promettent les technologies d'I.A. notamment en santé, mais pas seulement.
Ici, la question fut : "est-ce qu'il existera une inconscience des I.A. un jour ?"
Sans rentrer dans une discussion pointue sur les différents états freudiens (le moi, le sur-moi, le ça, etc.) et les différents états de conscience (la conscience, l'inconscience, le préconscient, le subconscient, etc.) il m'a semblé intéressant de faire un parallèle entre ce que l'on observe de ces algorithmes et ce terme de psychologie : l’inconscient.
Est-ce qu'il existera une inconscience des I.A. un jour ?
Je vois deux aspects en matière d'inconscient des I.A. qui peuvent se rejoindre.
Le premier, que j'ai déjà abordé dans ce blog, est celui de la couleur de la "boite" constituant ces algorithmes. Certains chercheurs voient ces programmes comme des boites "blanches" où l'on sait très exactement ce qui s'y passe et pourquoi le résultat arrivé est attendu. D'autres, dont je fais partie, considèrent qu'un véritable algorithme d'I.A. n'est pas transparent du fait du gigantisme des calculs et corrections qui se déroulent durant les traitements des données. On parle alors de boite "noire" car on introduit des "inputs" (données en entrée du programme), en découvrant des "outputs" (données en sortie du programme) complètement étrangers au résultat prévu à l'avance. C'est d'ailleurs en cela que les I.A. sont impressionnantes : elles nous proposent des solutions parfois complètement autres que celles espérées, souvent très innovantes. Du côté des "boites blanches", ce discours qui consiste à dire qu’on maitrise toutes les phases de calcul, toujours selon mon point de vue, permet surtout de tenter de poser des bases éthiques sur des calculs que l'on connaitrait donc par avance. C'est alors bien pratique de parler de boite "blanche" pour proposer ensuite les considérations normatives dont l'Europe est friande.
En la matière, et je l'ai aussi déjà écrit, je pense en définitive que seules des I.A. seront capables d'auditer d'autres I.A. complètement opaques dans leur fonctionnement. Rajoutons que d'un point de vue de l'attendu, il me semble normal qu'une I.A. propose des nouveautés, que ce soit en matière de calcul, de proposition de nouvelles molécules, de coups incompréhensibles au jeu de Go, etc... C'est ce qu'on demande à ces programmes, ce pourquoi ils sont conçus.
Une I.A. peut halluciner !
Le deuxième aspect, qui rejoint la première partie de ce texte, est le concept d'hallucination dans le monde des I.A. Car oui, une I.A. peut halluciner ! Typiquement, on s'en rend compte lorsqu'au détour d'une question assez simple, ChatGPT qui n'a pas la réponse correcte à la question posée, va inventer de toutes pièces une autre réponse, en proposant des sources fantasques, des auteurs qui n'existent pas et/ou des évènements historiques qui n'ont jamais existé mais qui corroborent bien sa théorie. Les "hallucinations" font partie du domaine de recherche et sont à ajouter aux bugs et biais divers embarqués par certaines I.A. (biais parfois délibérés pour imposer certaines réponses "idéologiques", soit dit au passage)
L'inconscient d'une I.A. pourrait être l'agrégation de la "boite noire" et des phénomènes "d'hallucinations"
Ainsi, on peut imaginer que l'inconscient d'une I.A. serait vu comme l'agrégation de ces deux concepts, la "boite noire" et les phénomènes "d'hallucinations" des algorithmes, qui, s'ils sont soumis au traitement de la machine, pourraient délivrer des messages totalement exotiques et parfois incompréhensibles. Rappelons-nous de ces deux I.A. qui, "parlant" ensemble, avaient fini par inventer leur propre langage et discutaient à une telle vitesse de choses inconnues que les chercheurs avaient préféré les débrancher !
Science sans conscience n’est que ruine de l’âme !
Nul doute donc, que l'I.A. possèdera un inconscient si l'une d'elle acquiert un jour un semblant de conscience.
L'Homme, lui, va devoir se faire à ces idées un peu troublantes et surtout, devra rester conscient de ces évolutions pour s'adapter au monde qui vient !
Souvenons-nous de Rabelais, « Science sans conscience n’est que ruine de l’âme ! »
Stéphan Le Doaré
留言