Dans une revue interne à Google, deux collaborateurs du projet de  recherche sur  l’intelligence artificielle, lancé en 2011 sous le nom de  Google Brain, Martin Abadi et David Andersen,  signent, le 24 octobre dernier,  un article au titre mystérieux : « Apprendre à protéger les communications contre une cryptographie hostile artificielle ».

Cet article,  repris ensuite par quelques journaux scientifiques américains, puis, moins précisément, par d’autres medias, établit que deux « réseaux neuronaux » (Intelligences Artificielles)  peuvent créer des codes secrets pour communiquer entre  eux en se protégeant de toute autre intelligence, artificielle ou humaine.

Plus précisément, les deux auteurs  ont donné à deux Intelligences Artificielles, qu’ils ont  aimablement nommé Alice et Bob, les moyens de  dialoguer  sans qu’une troisième, nommée Eve, puisse avoir accès  à leurs échanges.

Alice et Bob ont alors développé, à la surprise de tous, des formes de cryptage,  c’est-à-dire des langues, indéchiffrables pour tous, même pour  leurs  créateurs.

Les Intelligences artificielles sont très utiles, pour suppléer les hommes dans des taches qu’elles accomplissent mieux qu’eux  et plus vite ; et chercher à comprendre comment ces Intelligences Artificielles peuvent inventer des langues pour  véhiculer des messages confidentiels est aussi utile,  car chacun d’entre nous peut avoir intérêt à  créer  une langue qui lui soit personnelle et à ne la partager  qu’avec ceux en qui il a confiance.

Il n’empêche : cela peut aussi être terrifiant. On sait en effet, depuis longtemps, que ces intelligences peuvent aussi prendre leur autonomie  ; qu’elles peuvent d’abord  considérer que leur  mission est de contrecarrer ceux de nos comportements qui, à leurs yeux, nous nuiraient ; qu’elles  peuvent ainsi penser que l’humanité courre à sa perte et  décider, pour son bien,  de l’arrêter à temps. Mais elles  pourront alors aussi   agir contre l’humanité, dans leur seul intérêt ;  surtout si elles pensent que, à terme, nous aurons intérêt à les détruire : elles peuvent  alors nous combattre, en légitime défense.

Là, vient évidemment le pire, qu’annonce cet article,  apparemment purement  théorique : si les intelligences artificielles  réussissent à inventer des langues  irréversiblement indéchiffrables par les humains, nous sommes perdus.

Le pire des pronostics se réaliseront. L’humanité, à la recherche folle de l’immortalité,   aurait,  avant d’avoir réussi à transférer la conscience de soi dans ces machines, pour assurer sa propre immortalité, créé  des Intelligences Artificielles immortelles, capables de travailler en secret pour la détruire.  Doit-on arrêter cela ? Sans aucun doute.

L’humanité a déjà assez d’ennemis, à commencer par elle-même, pour ne pas s’en inventer d’autres.Les auteurs de l’article annoncent pourtant benoîtement qu’ils veulent aller beaucoup plus loin encore, et enseigner aux Intelligences Artificielles   d’autres techniques de  communications secrètes  (telle la stéganographie qui consiste à cacher  des messages à l’intérieur d’autres, sans même les crypter).

Il est urgent qu’une  grande conférence planétaire sur l’intelligence artificielle  réunisse savants et gouvernants pour décider d’un moratoire sur ces recherches, comme on l’a fait dans d’autres domaines, avec plus ou moins de succès (les armes chimiques, les manipulations sur les cellules souches).  On peut encore tirer le meilleur de la science. A condition de ne pas la laisser nous détruire.