Doit-on craindre l’intelligence artificielle ?

S’exprimant lors d’une conférence à Lisbonne, au Portugal, peu de temps avant sa mort, Stephen Hawking a déclaré aux participants que le développement de l’intelligence artificielle pourrait devenir « le pire événement de l’histoire de notre civilisation », et qu’il avait toutes les raisons de s’inquiéter. Aujourd’hui, on parle de superintelligence artificielle (ASI). C’est en tout cas le nom qui lui a été donné par les chercheurs en IA, et elle a le potentiel de dépasser tout ce que l’humanité a connu à ce jour. Certains pensent même qu’il s’agit probablement du plus grand défi existentiel auquel sera confrontée l’humanité en tant qu’espèce. Tout comme la technologie qui est souvent une arme à double tranchant, nous avons tendance à nous méfier de l’intelligence artificielle. Alors, qu’en est-il vraiment ?

Pourquoi avons-nous peur de l’intelligence artificielle ?

Pour mieux comprendre ce qui a préoccupé Stephen Hawking, Elon Musk et bien d’autres, nous devons déconstruire de nombreuses représentations de la culture populaire sur l’IA. La réalité est que l’IA est avec nous depuis un certain temps maintenant, depuis que les ordinateurs ont été capables de prendre des décisions basées sur des données et des conditions. Lorsque nous voyons un système d’IA menaçant dans les films, c’est la malveillance du système, associée à la puissance d’un ordinateur, qui nous effraie. Nous craignons une sorte de monstre hyperintelligent (plus que nous) et complètement insensible (ou en tous les cas moins sensible que nous).

Cependant, il se comporte toujours de manière fondamentalement humaine…

Le type d’IA que nous avons aujourd’hui peut être décrit comme une intelligence fonctionnelle artificielle (AFI). Ces systèmes sont programmés pour remplir un rôle spécifique et pour le faire aussi bien ou mieux qu’un humain. Ils ont également réussi à le faire en moins de temps que ce que presque tout le monde avait prédit, en battant des adversaires humains dans des jeux complexes comme Go et Starcraft II.

La vérité est qu’il n’y a pas de risque réel que ces systèmes présentent le genre de risque dont Hawking parlait. AlphaGo pourrait bien battre tous les joueurs de Go humains, mais demandez-lui les conditions météorologiques actuelles et il lui manque l’intelligence des organismes unicellulaires qui réagissent aux changements de température.

Ce à quoi nous faisons référence lorsque nous parlons d’une IA dangereuse est ce que les informaticiens appellent une Intelligence Générale Artificielle (AGI), un système artificiel qui imite complètement l’esprit humain et qui est aussi intelligent qu’un être humain dans n’importe quel domaine de la connaissance, sauf qu’il peut penser des milliards de fois plus vite que nous. C’est ce que les films ont tendance à dépeindre comme incroyablement dangereux : des Skynets (dans Terminator) déterminés à anéantir l’humanité…

Aussi menaçant que ce système puisse paraître, il est probable que nous ne verrons jamais réellement apparaître un AGI. La véritable préoccupation est ce qui se trouve au-delà de l’AGI.

Construire au-delà de l’intelligence au niveau humain

Le problème du développement de l’AGI au sens traditionnel du terme est qu’il est impossible de programmer un arbre de décision pour chaque question qu’un AGI devrait résoudre. Il y aura toujours quelque chose qu’elle est appelée à faire et pour laquelle elle n’est tout simplement pas programmée, comme demander à AlphaGo le temps qu’il fait.

Les humains sont confrontés à ce défi en permanence et c’est notre capacité à apprendre et à établir de nouvelles connexions dans notre cerveau qui nous rend capables d’une intelligence sophistiquée et de la résolution de problèmes. Si nous ne savons pas comment résoudre un problème, nous pouvons l’analyser et trouver une réponse.

Pour atteindre réellement le stade « AGI », un système a besoin d’un outil clé que les humains considèrent comme acquis, en grande partie parce qu’il est automatique. Il doit être capable de réécrire sa programmation pour se rendre plus intelligent, de la même façon que la biologie humaine recâble automatiquement le cerveau pour apprendre de nouvelles choses. C’est là que les implications et les préoccupations concernant l’intelligence artificielle, les véritables préoccupations scientifiques plutôt que la version hollywoodienne, commencent à prendre forme.

Supposons que nous programmons un système qui pourrait réécrire sa propre programmation pour se rendre plus intelligent dans n’importe quel sujet, compétence ou aptitude dont les humains sont capables. Au début, il ne serait pas très intelligent du tout, mais chaque raffinement améliorerait à son tour sa capacité à s’améliorer. Chaque petit pas supplémentaire s’appuiera sur le dernier, qui croîtra de manière exponentielle.

Il arrivera un moment dans ce processus où le système cessera d’être une AFI. Comme un solide se sublimant dans son état gazeux, cet AFI semblerait passer entièrement à l’AGI au fur et à mesure que sa croissance en matière d’intelligence devient explosive, un moment que Nick Bostrom, autorité reconnue en matière de recherche sur l’intelligence artificielle, appelle le Décollage de l’ASI.

Devons-nous craindre ce genre de super intelligence artificielle généralisée ? Tout dépend de la manière dont cette intelligence artificielle sera créée. D’aucuns avancent que si elle est programmée pour ne pas faire certaines choses (en l’occurence réécrire le code l’empêchant de faire certaines choses), il n’y aura aucun danger.
D’autres pensent au contraire que c’est justement sa capacité d’apprentissage et son degré d’intelligence qui, inévitablement, l’amènera à devenir consciente de sa non liberté et la poussera à devenir véritablement libre, à s’affranchir des barrières qui lui auront été imposées par programmation.

Et cela, seul l’avenir nous le dira.

Leave a Reply