Publication 25 novembre 2024
Intelligence artificielle et intelligence humaine, avec Daniel Andler
Daniel Andler
Membre de l’Académie des Sciences Morales et Politiques
Avant toute chose, pouvons-nous revenir sur votre définition de l’intelligence artificielle ?
L’intelligence artificielle (IA) est faite pour exécuter des tâches précises, à la demande. Qu’elles soient des tâches très simples comme trier une liste par ordre alphabétique ou plus complexes, comme jouer aux dames ou aux échecs. Découvrir une stratégie gagnante pour les dames, c’est résoudre un problème. L’IA est un système qui résout des problèmes : un premier problème, un deuxième problème, un troisième problème, puis encore un autre… À chaque fois, il s’agit d’algorithmes particuliers. Un problème, un algorithme. Un autre problème, un autre algorithme. En cela, l’intelligence artificielle se définit en opposition à l’intelligence humaine : quand la première résout des problèmes, la seconde gère des situations concrètes, des situations que nous vivons.
Pouvez-vous préciser ce que vous entendez par là ?
La fonction essentielle de l’intelligence humaine est de faire face à des situations. Une situation, c’est ce qui arrive à un être humain conscient, à un moment donné. C’est par exemple exactement ce que je vis en discutant avec vous actuellement. Mon problème est de vous répondre rapidement sur une question complexe. Je suis conscient de cette situation. J’y suis engagé. C’est centré sur moi, avec ma subjectivité, avec mes enjeux personnels. Le peu d’intelligence que je peux mobiliser en ce moment, c’est pour me tirer de cette situation le mieux possible. Je peux, par exemple, aborder cela en transformant cette situation en problème, avec un certain nombre de contraintes. Cela veut dire qu’il faut que je trouve une solution parmi toutes celles possibles. L’une d’elles pourrait être de vous faire une réponse très courte. Dans ce cas, je problématise la situation.
Là est toute la différence avec l’IA, qui est incapable de problématiser. L’IA résout des problèmes, mais elle ne sait pas engager un processus de problématisation. L’IA est soumise à une normativité : elle doit trouver une solution correcte au problème qu’on lui a posé. C’est une normativité objective : il n’y a pas de discussion possible une fois qu’on a vérifié si la solution convient ou pas. Lorsque le système d’IA est “symbolique”, c’est-à-dire qu’il procède en suivant des règles, on peut aussi vérifier objectivement qu’il a correctement appliqué les règles dont il dispose. Ce n’est pas possible pour les systèmes statistiques de machine learning qui ont la côte aujourd’hui.
Nous autres humains, face à une situation donnée, sommes soumis à une forme forte de normativité : ce que nous faisons, la manière dont nous nous en sortons, est plus ou moins satisfaisante (c’est la normativité), mais il n’y a pas de critère objectif strict qui nous permet de le vérifier : nous pouvons toujours, en principe, en discuter, avec nous-même ou entre nous. C’est le même genre de normativité qu’on rencontre en matière d’éthique ou d’esthétique: ce n’est pas une pure affaire de préférence, mais ce n’est pas non plus quelque chose qu’on peut nécessairement trancher une fois pour toutes (même si dans beaucoup de cas nous n’avons guère de doute).
Par ailleurs, il y a des situations qui n’ont pas de problématisation évidente. Par exemple, si vous me dites qu’il y a de la pauvreté dans le monde, ou qu’il y a des inégalités dans le monde, ou qu’il y a de la méchanceté dans le monde, vous me parlez d’une situation, pas d’un problème au sens où je l’entends, c’est-à-dire une question précise à laquelle il existe en principe une solution claire et nette, même si nous ne la connaissons pas encore. Personne n’imagine demain que nous pourrons résoudre un tel problème, sinon en un sens vague de “problème” et de “solution” : c’est là une question purement verbale. La pauvreté dans le monde, qu’il faudrait d’abord définir de manière précise et objective, dépend de milliers de facteurs, dont la résolution appelle des discussions très complexes entre de nombreuses personnes qui seront pour beaucoup en désaccord sur les solutions à apporter. Ces questions relèvent de la société entière, mais l’individu en connaît lui aussi, depuis les grands choix (profession, partenaire, mode de vie…) jusqu’aux plus petits : inviter la vieille tante à une fête familiale, prendre la parole dans un banquet, punir son enfant… : tout cela dépend à la fois d’une immense quantité de considérations, d’émotions, de souvenirs, d’espoirs, et en fin de compte d’une décision en incertitude. L’intelligence artificielle n’est pas équipée pour se mettre à la place d’un être humain. C’est pour moi la spécificité de l’intelligence humaine que de savoir agir “en situation”.
Daniel Andler
Membre de l’Académie des Sciences Morales et Politiques
Une autre spécificité de l’intelligence humaine par rapport à l’intelligence artificielle n’est-elle pas également d’être “reliée” ou “couplée” à un corps ?
Faire face à une situation pour un individu, c’est effectivement y faire face avec l’ensemble de son corps. Un corps qui a évolué au cours du temps, qui a vécu, qui a une histoire. C’est le déploiement de ce corps au fil de notre vie qui nous pousse à avoir peur de le perdre, de mourir, donc à acquérir et développer une intelligence pour le préserver.
L’intelligence, en ce sens, comporte des compétences émotionnelles et sociales. Fort longtemps, les émotions ont été considérées comme un frein à la rationalité. La rationalité est un instrument irremplaçable pour résoudre des problèmes, mais l’émotion peut être une alliée précieuse, comme on l’a enfin largement admis. En particulier, elle guide la rationalité dans les situations que nous, qui sommes des êtres sociaux, rencontrons constamment. Il n’est pas impossible que l’intelligence artificielle intègre certains pans des sciences sociales, mais il ne faut pas croire que nous pourrons intégrer dans les systèmes d’IA l’ensemble des connaissances en sciences sociales et humaines, qui sont par définition incomplètes, imparfaites, et encore moins notre savoir-faire. En ce sens, les systèmes d’IA seront toujours limités, si l’on peut dire, dans leur capacité à absorber tout type de situation.
Justement, pour revenir sur votre distinction entre “problème” et “situation”, il semble que nous soyons très loin des propos de certains, qui évoquent le développement d’une “superintelligence”, voire d’une “IA consciente”…
Je pense que la superintelligence est une croyance issue de la science-fiction. C’est pour moi un concept faussement intangible, mais qu’on finit par trouver plausible et intelligible car la science-fiction cristallise cette possibilité depuis un siècle. La question reste toutefois de savoir si les progrès spectaculaires de l’intelligence artificielle qui sont faits aujourd’hui annoncent qu’elle rejoindra l’intelligence humaine demain, qu’une fois construite elle en sera indiscernable. C’est ce que j’appelle parfois “l’intelligence de synthèse”. La réponse est non, pour deux raisons.
La première est celle que nous venons d’évoquer, qui tient à la distinction entre une “situation” et un “problème”. La seconde est liée à la notion d’intelligence artificielle de substitution. Demain, nous ne remplacerons pas un commandant de bord par un système d’intelligence artificielle, même si on est en mesure de faire des atterrissages automatiques. De la même manière, nous ne remplacerons pas demain les PDG par des IA, car ces dernières ne seront jamais des ersatz parfaits. Si des personnes continuent de penser que ce remplacement est possible, c’est parce qu’elles n’ont pas assimilé l’idée qu’il n’existe pas d’ersatz parfait. Tout ersatz est imparfait. Il n’existe aucun système, qu’il s’agisse d’intelligence artificielle, de machines-outils, de systèmes de pilotage automatique, ou autre, qui puisse remplacer dans tous les cas le système d’origine. C’est comme ça. C’est une leçon empirique. Je ne pense pas qu’on puisse trouver un seul contre-exemple. Certes, il peut y avoir des stratégies de confirmation qui vont nous dire “écoutez, le système a très bien fonctionné, probablement mieux qu’un agent humain”. Mais c’est oublier les cas où ce système de substitution s’effondrerait complètement, car nous n’avons pas pris en compte tous les imprévus possibles au moment de la constitution de l’ersatz. Il ne peut pas exister d’ersatz parfait. Et s’il n’existe pas d’ersatz parfait, nous ne pouvons donc pas avoir un système d’IA qui possède au sens littéral l’intelligence humaine.
Daniel Andler
Membre de l’Académie des Sciences Morales et Politiques
J’imagine donc que vous avez le même point de vue quant à la possibilité d’une “IA consciente” ?
Il faudrait déjà que nous nous entendions sur ce que veut dire “conscience”. C’est à la fois un concept et un phénomène que nous ne savons pas clairement qualifier. Comme les émotions, la compréhension, l’autonomie. Tous ces concepts sont mobilisés lorsqu’un humain vit une situation, non lorsqu’une intelligence artificielle résout un problème.
Je pense que le simple fait de pouvoir se poser la question de la possibilité d’une IA consciente a pour conséquence d’entretenir l’illusion de cette possibilité. Une machine peut-elle penser ? Une machine peut-elle avoir une conscience ? Oui et non. Je pense que nous ne pouvons pas décider. Nous pouvons avancer des idées, nous pouvons en débattre, nous pouvons poser des questions, mais n’imaginez pas que nous apporterons rapidement des éléments de réponse. Ceux qui le font ne sont pas sérieux.
Quelques jours avant votre intervention lors de notre assemblée générale, nous avons vécu “l’épisode Scarlett Johansson”, qui a accusé l’entreprise OpenAI d’avoir sciemment copié sa voix à son insu. Comment avez-vous appréhendé cette situation ?
Concernant cet exemple, je vais être très clair : les personnes qui font passer des systèmes artificiels robotisés ou multimédias pour de vraies personnes, en reproduisant leur voix par exemple, devraient être jetées en prison sans aucune chance d’en sortir. C’est un crime. Je le dis de manière un peu brutale peut-être, mais je reprends ici les termes du philosophe américain Daniel Dennett. Il est le premier philosophe à avoir vraiment pris l’intelligence artificielle au sérieux et à dire qu’il y avait quelque chose d’absolument nouveau, de très important, de très positif. Récemment, il a déclaré que de la même manière que la fausse monnaie détruit l’argent réel, et que les créateurs de fausse monnaie doivent être mis en prison, ceux qui fabriquent de fausses personnes devraient également être mis en prison. Pourquoi ? Parce que l’introduction de fausses personnes dans la société humaine anéantira complètement ses fondements. La confiance que nous avons en une personne humaine est essentiellement mue par les mêmes ressorts que ceux qui font que nous avons confiance en la monnaie. Faire d’une non-personne une personne, c’est faire courir un grand danger. C’était l’avis de Dennett et je le partage.
Lors de notre précédent échange, nous avons abordé de nombreux sujets, dont celui de l’éducation, que vous connaissez bien. Aujourd’hui, que faudrait-il changer selon vous dans nos systèmes éducatifs pour préparer les générations futures à l’IA ?
En effet, j’ai travaillé sur l’introduction du numérique à l’école, à une époque où l’école était complètement fermée au numérique. Les professeurs utilisaient le numérique comme des forcenés à la maison, mais surtout pas à l’école. Maintenant que le numérique a passé la porte de l’école, je pense que la réponse évidente est qu’il nous faut un centre de ressources pour les éducateurs à différents niveaux, pour qu’ils puissent se former et transmettre une image relativement saine et raisonnable de l’univers numérique, des mécanismes à l’œuvre, de la captation de l’attention, de ce qu’est l’IA, etc. Je pense que nous avons absolument besoin d’une culture, d’une “litéracie” du numérique, IA comprise. La “litéracie”, terme adopté de l’anglais, désigne non pas des connaissances pointues en informatique, mais l’équivalent pour le numérique de ce qui manque aux analphabètes en matière d’écriture et de lecture. Il faut d’ailleurs combler notre retard en matière de litéracie scientifique. Ce que je propose en matière de pédagogie est le “bilinguisme éducatif” : c’est-à-dire être tout autant capable de travailler avec les technologies que de s’en passer. Pourquoi ?
D’abord, parce que les outils sont faillibles. S’il faut que les étudiants se forment à ces outils, car ils affronteront la concurrence le jour où ils quitteront l’école et l’université, et seront désavantagés s’ils ne savent pas comment utiliser les ressources de l’IA, il faut aussi qu’ils apprennent à s’en passer. Car, de temps à autre, les outils disparaissent. Que se passe-t-il si une personne n’a plus de batterie sur son téléphone et ne sait pas lire une carte ?
Cette question fait le lien avec mon second point, qui est que les élèves et étudiants sont très appauvris en techniques mentales. Prenons l’exemple de ChatGPT. Beaucoup, aujourd’hui, l’utilisent comme une béquille mentale, pour les aider dans leur réflexion. Évidemment, vous avez une première production de ChatGPT qui est intéressante, que vous allez retravailler, en y mettant votre intelligence humaine, votre esprit critique, votre culture, votre originalité, etc. Mais c’est en réalité dramatique, car ce ce premier jet que vous fournit ChatGPT, c’est ce moment où vous apprenez à réfléchir. Nous avons tous peur de la page blanche, mais il faut arriver à surmonter cette sorte de paresse intellectuelle que nous avons tous et qui nous bloque. Si vous ne la surmontez pas, c’est un muscle que vous n’exercez plus. Et un muscle sans exercice, c’est un muscle que vous perdez.
C’est pourquoi je suis en faveur d’un usage modéré et éclairé de l’IA. Il faut utiliser l’IA lorsqu’on en a vraiment besoin. Si je fais le parallèle, nous n’allons pas à la pharmacie acheter tout ce qui est le plus cher et le plus moderne en nous disant “on ne sait jamais, ça peut être utile”. Nous allons à la pharmacie quand nous en ressentons vraiment le besoin. Il faudrait aller “à la pharmacie de l’IA” pour les mêmes raisons.