Autour des intelligences - E03 : Créations, Décisions et Mémorisations.

L'IA et l'intelligence humaine partagent des capacités d'interprétation et de traitement de l'information. Les modèles d'IA, bien qu'entraînés sur des données biaisées et régis par des règles spécifiques, se distinguent principalement par leur dépendance aux objectifs fixés par l'humain.

Autour des intelligences - E03 : Créations, Décisions et Mémorisations.
Photo by Europeana / Unsplash

Alors, pour revenir à notre question homme-machine : une machine est-elle capable d'interpréter ? La question est complexe alors prenons le temps d'y réfléchir. La réponse comporte deux aspects essentiels.

D’abord, des modèles comme ChatGPT sont entraînés sur une vaste base de connaissances, connaissances qui sont bien sur, elles-mêmes biaisées. Si vous pensiez que les connaissances étaient objectives, n’hésitez pas à m'écrire pour échanger sur le sujet 🙂

Ensuite, pour les premiers modèles de LLM, les chercheurs ont dialogué avec l'IA pendant un an et demi pour « le former », lui donner des règles de conduite, un semblant de code moral et aujourd'hui des restrictions juridiques. C'est un peu comme si on l'avait éduquée pendant cette période. On le remarque d'ailleurs particulièrement avec ChatGPT, qui adopte une perspective très « américaine » dans ses réponses spontanées. Ces modèles sont le résultat d'un apprentissage et, comme nous, on pourrait dire qu’ils interprètent nos demandes selon cet apprentissage.

Si vous vous souvenez de l’article précédent, nous étions en train de comparer les grandes fonctions cognitives humains à celle dites “de synthèse”. Passons aux fonctions suivantes, cette interprétation donne naissance a des objectifs. Pour aller plus vite et vous éviter un tralalala en sciences cognitives, On définira globalement ici les objectifs comme des idées qui permettraient de résoudre un problème.

Imaginons que vous ayez faim, ça c'est le problème identifié. Votre cerveau va interpréter cette sensation et générer des objectifs possibles pour résoudre ce problème, comme aller au réfrigérateur chercher un reste du dîner d'hier, commander un repas en livraison ou préparer un sandwich. Chacune de ces idées est un objectif potentiel né de l'interprétation de votre sensation de faim, et vous allez ensuite choisir la solution la plus adaptée selon votre situation : le temps disponible, le budget, les envies et j’en passe.

Je vais continuer encore un peu sur l'humain et on reboucle avec l'IA dans pas long. Maintenant, est-ce que vous vous êtes déjà demandé comment naissent les idées ? Imaginez votre espace mental comme un ensemble quasi infini de pièces de puzzle qui peuvent potentiellement s'associer avec toutes les autres pièces. Chacune de ces pièces existe par l'intermédiaire de votre vécu, votre culture, vos connaissances et autres aspects de votre formidable vie. Eh bien, les idées sont juste le résultat de la combinaison de ces pièces entre elles. On dit que la pensée créative est combinatoire. D'ailleurs, on parle souvent de créativité en l'associant aux artistes, mais c'est un abus de language ; si on part du principe que créer revient à résoudre des problèmes avec les « moyens du bord », alors une footballeuse, un ingénieur ou même un assistant de direction peut être créatif. Les machines, pour le coup, reposent aussi sur ce même système combinatoire basé sur leurs expériences. C'est ce qui permet aux IA de générer par exemple des images avec Midjourney, ChatGPT et autre Pixtral. Donc les IA peuvent bien créer en fonction d'un objectif que vous leur aurez fixé… . Et c'est bien là, aujourd'hui, une des plus grandes différences avec notre intelligence. Une IA sera toujours dépendante des objectifs que l'on lui fixe, aujourd'hui elle serait incapable de se fixer elle-même des objectifs. Elle pourra générer des sous-objectifs dans le cadre de ce qu'on lui demande pour segmenter ses tâches, mais là nous sommes plus proches d'une planification que vraiment d'une vraie autonomie. Et même lorsqu’on parle des derniers modèles comme Gpt-o1, o3 ou récemment deepseek R1 qui sont conçu pour « réfléchir », aussi impressionnant sont-ils, ils réfléchiront sur une problématique que vous leur avez fourni.

Ce qui nous amène à nos deux dernières fonctions cognitives : la prise de décision et la mémorisation. En cognition, la prise de décision est très liée à l'action. Je prends la décision de faire quelque chose, je prends la décision de répondre à quelqu’un qui m’envoie un messages ou de créer une image… Vous voyez ce que je veux dire ? Je vous laisse donc déduire si une machine est capable de décider ou non. La question de la mémorisation, elle, a beaucoup évolué depuis 2 ans et se divise en 2 partie. Comme dans notre cerveau, Les grands modèles de language possède 2 types de mémoire. La première est une mémoire à court terme, qu’on appel « fenêtre contextuelle », en gros, c’est la capacité d’un LLM a se rappeler ce qui a été dit dans une conversation. Les premiers modèles oubliaient vite, les récents moins 🙂. La seconde, l’équivalent de la mémoire à long terme, est-ce qu’on appel trop génèralement une “base de connaissance”. Ces bases de données permettent à l’IA de développer son expertise et de moins « imaginer des trucs qui n’existent pas» ou de moins “halluciner” comme il est dit dans le jargon. Aujourd'hui on peut créer de vraies bases de connaissances en nourrissant la machine de documents et autres formes d'information afin de la spécialiser dans un domaine.

Donc est-ce que les machines prennent des décisions et est-ce qu'elles ont une mémoire ? Oui et non, la question est plus : est-ce que nous permettrons aux machines de ne pas oublier et de prendre des décisions ? Nous aborderons ce point dans les prochains articles lorsque nous parlerons des interactions entre hommes et machines.

Là l'objectif était de vous faire comprendre que finalement, la différence est assez fine entre ce que notre intelligence nous permet de faire et ce qu'une intelligence machine peut faire. Une intelligence artificielle est bien une intelligence au même titre que la nôtre. Mais comme mentionné dans l’article 1 de cette série, le challenge résiderait donc finalement peu dans cette IA mais bien dans le concept de vie artificielle, dans laquelle nous rajouterons les notions d'émotions et tous les tintouin qui rendent un humain plus complexe que "ça". Bref, c'est un sujet pour une autre fois.

Gd.