G-DESSIN_GOOSSENS Dessin de couverture du "Sériue-Or" Fluide Glacial n°46 de mars 2009.© Goossens/Fluide Glacial 2009

Les limites de l’intelligence artificielle connexionniste

En 20 ans, l’intelligence artificielle connexionniste a fait des progrès spectaculaires. Mais ce qu’il lui manque pour rivaliser avec l’intelligence humaine est encore largement inaccessible. La reconnaissance fiable de la parole humaine par ordinateur semblait hors de portée jusque dans les années 1990. Cet objectif a été approché de façon spectaculaire à partir des années 2000, grâce aux grands volumes de données, aux méthodes statistiques, et à l’apprentissage profond.
(paru dans SAY 5, 3e trim. 2021)

Pour effectuer cette percée, il a fallu accumuler des bases gigantesques d’exemples de prononciations, tant la variabilité des oscillogrammes enregistrés à partir d’un même texte est grande, et entraîner sur ces exemples des architectures à base de réseaux de neurones artificiels. Les grands opérateurs du domaine font en permanence annoter par des humains des paroles enregistrées. Les systèmes de reconnaissance de la parole ne cessent ainsi de s’améliorer alors qu’ils n’ont pas de compréhension réelle de ce qu’ils entendent. Les grands volumes de données et l’apprentissage profond, qui sont aujourd’hui à l’avant-plan de l’intelligence artificielle, sont peut-être une théorie de la perception humaine. En effet, notre cerveau ne mémorise pas seulement une grammaire et un lexique de notre langue naturelle, mais aussi une énorme quantité d’idiomes, de façons de prononcer, d’accents, de types de voix. C’est ce qui fait la différence entre un locuteur natif ou étranger.

On aurait cependant tort de penser que cette percée spectaculaire de l’intelligence artificielle (IA) connexionniste invalide une précédente IA symbolique, basée sur des logiques formelles et du raisonnement automatique. En plus de mémoriser de grandes quantités de phénomènes bruts perçus du réel, notre cerveau semble avoir la capacité de les compresser en permanence en théories. Ces théories confèrent des capacités de généralisation, de raisonnement et de compréhension inatteignables par la seule compilation de phénomènes perçus, vectorisés et accompagnés de probabilités. La physique qualitative, par exemple, étudie de telles théories abstraites, intuitives, qui peuvent conférer un peu de sens commun à un programme. Aujourd’hui cependant, aucun modèle pour expliquer comment ces théories se forment spontanément ne fait consensus.

L’idée a été fréquemment admise selon laquelle, sans rien ajouter aux technologies courantes, un grand volume de données suffirait pour atteindre les objectifs de l’IA forte. Les limites de l’IA connexionniste en sont un démenti. Beaucoup de chercheurs pensent qu’il faudra encore attendre un nombre inconnu de percées fondamentales imprévisibles avant d’espérer doter une IA d’une compréhension proche de celle d’un enfant ayant l’âge de raison. Si AlphaGo a battu les meilleurs joueurs humains, si Watson a dominé au « Jeopardy! », si l’IA connexionniste réalise régulièrement de nouveaux exploits, on est toujours très loin d’un programme qui obtiendrait le certificat d’études de jadis. Ne nous laissons pas abuser par les quelques exemples qui prétendent dépasser l’humain dans des tests formatés de lecture et compréhension. Ils restent faciles à piéger avec des questions désarmantes de simplicité. •

Nous espérons que vous appréciez SAY.

Pour continuer votre lecture, abonnez-vous.

S'abonner

https://www.say.media/MsvVqR9