Si l’intelligence artificielle (IA) rime aujourd’hui avec «apprentissage», ce n’était pas le cas il y a à peine quelques années. Bien qu’elle permettait d’identifier des caractères imprimés, de jouer aux échecs ou de poser des diagnostics médicaux à l’aide de déductions logiques provenant d’experts, l’IA d’alors était toutefois laborieuse et limitée puisqu’elle nécessitait une programmation manuelle.
Les débuts d’une autonomie
Au début de la décennie 2010, des avancées technique et algorithmique ont permis d’améliorer considérablement les performances en IA, notamment en apprentissage automatique, ce processus par lequel un ordinateur peut s’améliorer par lui-même au fur et à mesure des résultats qu’il obtient.
La technique d’apprentissage automatique la plus utilisée, l’apprentissage supervisé, consiste à fournir à l’ordinateur une base de données d’apprentissage à partir d’un modèle de classement et d’exemples étiquetés (par ex. : l’image d’un arbre est associée à l’étiquette « arbre »). L’ordinateur peut ainsi finir par identifier des éléments en se référant aux caractéristiques des milliers, voire des millions d’éléments qui composent sa base de données.
Reposant en grande partie sur l’apprentissage automatique, s’est développée la reconnaissance des formes, un système de classification qui permet à l’ordinateur d’identifier différents types de « motifs » informatiques, non seulement visuels — objets ou images —, mais aussi sonores (reconnaissance de la parole) et autres (images médicales, satellitaires, etc.). Le hic concernant la reconnaissance des formes c’est qu’il est ardu de mettre au point un bon extracteur de caractéristiques, et qu’il faut revoir ce dernier pour chaque nouvelle application.
Apprentissage profond : une révolution
Au début des années 2000, les chercheurs Geoffrey Hinton, Yann LeCun et Yoshua Bengio décident de réexaminer le potentiel des réseaux de neurones artificiels numériques, une technologie délaissée par la recherche de la fin des années 1990 au début de la décennie 2010. Le trio « invente » l’apprentissage profond, qui s’avère aujourd’hui la branche la plus prometteuse de l’IA, celle qui a ranimé l’intérêt pour ce champ de la technologie.
Inspirés du fonctionnement du cerveau humain, ces réseaux de neurones artificiels, optimisés par des algorithmes (ensemble de règles) d’apprentissage, effectuent des calculs et fonctionnent selon un système de couches : les résultats de chaque couche servant aux couches successives, d’où le qualificatif « profond ». Alors que les premières couches extraient des caractéristiques simples, les couches subséquentes les combinent pour former des concepts qui gagnent en complexité.
Le principe de cette technologie est de laisser l’ordinateur trouver par lui-même la meilleure façon de résoudre un problème à partir d’une très grande quantité de données et d’indications concernant le résultat attendu. L’apprentissage profond peut par ailleurs utiliser l’apprentissage supervisé tout comme l’apprentissage non supervisé.
La grande révolution amenée par l’apprentissage profond est que les tâches demandées à l’ordinateur reposent maintenant sensiblement sur les mêmes principes ou algorithmes. Alors qu’avant les connaissances en IA étaient subdivisées en plusieurs types d’applications chacune étudiée en silo, les efforts sont désormais concertés pour tenter de comprendre les mécanismes d’apprentissage.
Le tournant 2011-2012
5 événements marquants pour l’apprentissage profond
- Les processeurs graphiques (ou GPU de l’anglais Graphical Processing Unit) pouvant réaliser plus de mille milliards d’opérations par seconde deviennent disponibles pour moins de 2000 $ la carte. Ces processeurs spécialisés très puissants, conçus au départ pour le rendu graphique des jeux vidéo, se sont révélés hautement performants pour les calculs des réseaux neuronaux.
- Des expériences conduites par Microsoft, Google et IBM, avec la collaboration du laboratoire de Geoffrey Hinton de l’Université de Toronto, démontrent que les réseaux profonds permettent de réduire de moitié les taux d’erreurs des systèmes de reconnaissance de la parole.
- Dans le cadre de Google Brain, un projet de recherche en apprentissage profond mené par Google, l’IA parvient à apprendre à « reconnaître » une image de chat parmi 10 millions d’images numériques provenant de YouTube.
- Google recourt aux réseaux de neurones artificiels pour améliorer ses outils de reconnaissance de la parole.
- Des réseaux de neurones convolutifs – inspirés par le cortex visuel des mammifères – pulvérisent des records en reconnaissance d’image en réduisant considérablement le taux d’erreurs. La victoire de l’équipe de Toronto menée par Geoffrey Hinton à la prestigieuse compétition de reconnaissance d’objets « ImageNet » confirme le potentiel de l’apprentissage profond. La plupart des chercheurs en reconnaissance de la parole et de la vision se tournent alors vers les réseaux convolutifs et les autres réseaux neuronaux.
Des investissements massifs provenant du secteur privé ne tarderont pas à suivre au cours des années suivantes…
Que peut apprendre à reconnaître un ordinateur grâce à l’apprentissage profond?
- Des éléments visuels, tels que des formes et des objets dans une image. Il peut aussi identifier les personnes présentes dans l’image et préciser le type de scène dont il s’agit. En imagerie médicale cela peut permettre, par exemple, de détecter des cellules cancéreuses.
- Des sons produits par la parole qu’il peut convertir en mots. Cette fonction est notamment déjà intégrée aux téléphones intelligents ainsi qu’aux appareils d’assistance personnelle numériques.
- Les langues les plus courantes — pour les traduire.
- Les éléments d’un jeu pour y prendre part… et même gagner contre un adversaire humain.
Yoshua Bengio à Concordia
Star mondiale de l’Intelligence artificielle, le montréalais Yoshua Bengio est l’un des leaders d’opinion invités de la Série de conférenciers du président sur les avenues futures du numérique de Concordia. Sa conférence se tiendra le 24 avril prochain, et comme tous les autres événements de cette Série, elle est ouverte au grand public et gratuite.
M. Bengio est l’un des chefs de file en apprentissage profond, une technique qui consiste à développer chez un ordinateur la capacité « d’apprendre par lui-même » grâce à des réseaux de neurones artificiels. Auteur du livre le plus vendu sur le sujet, il est aussi l’un des experts canadiens les plus cités. Cumulant les fonctions, il est notamment professeur titulaire au Département d’informatique et de recherche opérationnelle de l’Université de Montréal, directeur de l’Institut des algorithmes d’apprentissage de Montréal (le MILA), codirecteur du programme Learning in Machines and Brains de l’Institut canadien de recherches avancées, et titulaire de la Chaire de recherche du Canada sur les algorithmes d’apprentissage statistique.
En plus de son apport à la recherche, M. Bengio se donne pour mission de vulgariser son champ d’expertise auprès des entreprises et de s’impliquer dans le débat concernant les enjeux éthiques liés à l’IA (voir Déclaration de Montréal IA responsable).
Le parcours en dents-de-scie des neurones artificiels
Le premier réseau de neurones artificiels date de la fin des années 1950. Le « perceptron » – c’était son nom – pouvait identifier des formes simples. Une dizaine d’années plus tard, la recherche se désintéresse de l’angle neuronal en IA après que des doutes sur ses possibilités aient été émis par des scientifiques du Massachusetts Institute of Technology (MIT).
Dans les années 1970 et 1980, Geoffrey Hinton, Yann LeCun et Kunihiko Fukushima créent des réseaux de neurones artificiels numériques à couches multiples. Inspirés du cortex visuel des mammifères, ces réseaux permettent à l’ordinateur d’apprendre des tâches plus complexes. La masse de données disponibles et la puissance de calcul restant toutefois insuffisantes, cette technologie est délaissée durant plusieurs années.
Écrivez un commentaire