Les performances de l’intelligence artificielle (IA) générative, que le grand public découvre depuis la sortie de ChatGPT, impressionnent, et il ne se passe pas une semaine sans qu’apparaissent de nouveaux outils qui utilisent cette technologie. À partir des données d’entraînement et grâce à un système mathématique hyperpuissant, l’IA générative est capable de comprendre une requête complexe et de prédire statistiquement la meilleure réponse possible, qu’il s’agisse de résoudre un problème mathématique ou scientifique, de coder ou encore de produire du texte, de l’image, de l’audio ou de la vidéo. Alors que des experts en IA avancent qu’elle pourrait nous surpasser sur plusieurs plans dans les années ou les décennies à venir, il lui manque cependant à l’heure actuelle quelques aptitudes pour nous concurrencer sur tous les terrains cognitifs.
Voici donc ce que l’IA ne sait pas encore faire, tel que précisé notamment par trois experts en IA dans le cadre des Rencontres de Pétrarque* diffusées sur France culture. Ces trois experts sont Yoshua Bengio, fondateur et directeur scientifique de Mila, Yann LeCun, chercheur et directeur scientifique pour l’IA à Meta, notons que les deux hommes sont des pionniers de l’apprentissage profond et récipiendaires avec Geoffrey Hinton du prix Turing 2019, et Patrick Pérez, directeur pour l’IA chez Valeo et directeur scientifique de valeo.ai.
*Épisode 1/5 : Qu’est-ce que l’intelligence, Série « Les révolutions de l’intelligence », Les Rencontres de Pétrarque, France culture, 10 juillet 2023.
L’intelligence artificielle ne parvient pas à…
-
Raisonner et planifier
La capacité à raisonner et planifier réfère au « système 2 » de notre système cognitif, alors que le « système 1 » représente la pensée plus rapide et « intuitive », que l’IA reproduit assez bien. Bien que des progrès aient été réalisés, l’IA n’a toujours pas un système 2 équivalent au nôtre. Dans cette même veine, comme le souligne Patrick Pérez, les machines propulsées par l’IA « ont beaucoup de mal à douter (problème de l’estimation de l’incertitude) et à s’expliquer sur les décisions qu’elles ont prises. De plus, elles résistent assez mal aux perturbations imprévues (problème de la robustesse) et éprouvent de la difficulté à s’improviser dans des conditions nouvelles qu’elles n’ont pas rencontrées à l’apprentissage ».
-
Inhiber ses biais
Aux systèmes 1 et 2, on doit à l’enseignant-chercheur et psychologue Olivier Houdé d’avoir mis en lumière l’existence d’un 3e système cognitif dit « d’inhibition », qui n’est rien de moins selon son découvreur que la « clé de l’intelligence » (voir Les 3 vitesses de la pensée). Or, l’intelligence artificielle, que M. Houdé considère bien mal nommée, en est dépourvue : « Il manque encore aux ordinateurs un cortex préfrontal, c’est-à-dire qui permette un contrôle de soi, un contrôle inhibiteur; et c’est d’autant plus contemporain et grave comme sujet que les grandes bases de données, le Big Data, amplifie les biais cognitifs », précise-t-il en entrevue dans le cadre de la parution de son livre Comment raisonne notre cerveau (2023).
-
Avoir un contrôle moteur
« On est loin d’avoir des systèmes qui, au niveau robotique, par exemple, sont aussi bien que ce que la plupart des animaux peuvent faire », précise Yoshua Bengio, ajoutant qu’il n’est toutefois peut-être pas nécessaire que l’IA ait un contrôle moteur pour poser un danger.
-
Comprendre comment fonctionne le monde
Tel que l’explique Yann LeCun, « si l’on veut planifier une séquence d’actions pour arriver à un but, il faut avoir un modèle du monde qui nous permet d’imaginer le résultat ou l’effet de nos actions. Par exemple, si je pousse le verre qui est sur la table à sa base, il va probablement bouger, mais si je le pousse en haut, il va probablement basculer. On a tous un modèle de la physique intuitive du monde, qui nous permet de planifier quelle séquence d’actions effectuer pour aboutir à un résultat particulier ». Alors qu’il travaille sur le développement de modèles de monde de ce type, M. LeCun note qu’il faudra ensuite utiliser ceux-ci avec des buts : la machine devra avoir des buts à remplir pour planifier ses actions, et pouvoir prédire si ses buts pourront être atteints ou pas.
-
Avoir des émotions
Selon Yann LeCun, « si on a des machines [d’IA] qui parviennent à planifier leurs actions, imaginer les résultats des séquences de leurs actions et qu’elles ont des buts à satisfaire, elles vont inévitablement avoir des émotions, et c’est probablement cela qui va nous permettre de les rendre pilotables, c’est-à-dire compatibles avec nous, l’humanité ». Notons que des chercheurs se sont penchés récemment sur la capacité de ChatGPT à identifier et décrire des émotions, en vue de son utilisation potentielle dans le domaine de la santé mentale (Z. Elyoseph et al., 2023). Dans le cadre de cette étude, ils ont eu recours à l’échelle de niveau de conscience émotionnelle (LEAS) de Lane et Schwartz (1987), la « conscience émotionnelle » étant décrite en psychologie comme la capacité à conceptualiser ses propres émotions et celles des autres. L’étude a démontré que le robot conversationnel est en mesure de générer des réponses appropriées à la « conscience émotionnelle » et que ses performances peuvent s’améliorer de manière significative avec le temps. Dans certains cas, ChatGPT a même eu des performances supérieures à celles des normes de la population humaine générale avec lesquelles il a été comparé.
En complément :
- Les 3 vitesses de la pensée
- Intelligence artificielle : testez vos connaissances!
- 10 catégories d’outils d’IA générative
- Simplifier l’IA… et confectionner des gâteaux
- Décrypter ChatGPT
- Apprentissage profond 101
- Mini glossaire de l’intelligence artificielle
- Des initiatives pour une intelligence artificielle responsable et humaniste
- Intelligence artificielle : testez vos connaissances!
- IA, fais-moi rire!
- Serez-vous remplacé par un robot au travail?
- Confrontation humain-machine
- Intelligence artificielle : Montréal, la ville de l’heure
- Apprentissage adaptatif intelligent : à chacun sa formation!
Auteure:
Catherine Meilleur
Stratège en communication et Rédactrice en chef @KnowledgeOne. Poseuse de questions. Entêtée hyperflexible. Yogi contemplative
Catherine Meilleur possède plus de 15 ans d’expérience en recherche et en rédaction. Ayant travaillé comme journaliste, vulgarisatrice scientifique et conceptrice pédagogique, elle s’intéresse à tout ce qui touche l’apprentissage : de la psychopédagogie aux neurosciences, en passant par les dernières innovations qui peuvent servir les apprenants, telles que la réalité virtuelle et augmentée. Elle se passionne aussi pour les questions liées à l’avenir de l’éducation à l’heure où se pointe une véritable révolution, propulsée par le numérique et l’intelligence artificielle.
Écrivez un commentaire