Je reviens dans cet article sur l'un des sujets que j'aborde plus longuement dans mon livre « Immortalité numérique ». L’une des clés de voûte de la thèse transhumanisme réside
dans l’accélération sans précédent du progrès technologique qui conduirait, à
courte échéance, à l’émergence d’une singularité technologique : une
superintelligence capable de s’améliorer elle-même et qui prendrait en mains l’avenir
de l’humanité.
Cette hypothèse repose essentiellement sur une extrapolation
de la loi de Moore, pour laquelle, grosso modo, la puissance de calcul de nos
ordinateurs doublerait tous les deux ans.
En positionnant sur un graphe à échelle logarithmique l’évolution de la
puissance des machines depuis l’apparition des premiers calculateurs, on se
rend compte que cela ressemble en effet bigrement au début d’une jolie fonction
exponentielle. En extrapolant, c’est-à-dire en traçant la suite de la courbe en
se basant sur la même progression, on obtient une fonction impressionnante
où la puissance d’un ordinateur dépasse
celle du cerveau humain vers 2030, puis celle de tous les humains de la planète
réunis vers 2045. Aux alentours de 2100, la courbe devient presque verticale
avec une puissance qui tend vers l’infini et au-delà, comme dirait Buzz l’éclair.
La conséquence de cette hypothèse pour Ray Kurzweil et les
transhumanistes est donc évidente : très rapidement la puissance de calcul
sera telle qu’elle permettra à une intelligence artificielle (IA) d’atteindre
un niveau d’intelligence sans précédent et d’accéder à la conscience. Ensuite,
on ne sait plus trop ce qui se passerait, d’où la métaphore de la singularité
qui fait référence à l’horizon des événements d’un trou noir. Cela pourrait-être le début d’un scénario de science-fiction
(et cela l’a été avec plus ou moins de succès), mais beaucoup y croient
réellement jusqu’à devenir une sorte de prédiction quasi-religieuse qui échappe
à toute rationalité.
Dans le monde abstrait des mathématiques, un tel modèle
simple (pour ne pas dire simpliste) conduit à cette conclusion surprenante.
Toutefois, dans la réalité, une telle extrapolation ne tient pas la route une
seule seconde. Elle néglige en effet un
si grand nombre de paramètres, que cela en devient fascinant. Ainsi, pour ne
citer que les plus évidents, elle ne
tient absolument pas compte de l’énergie et des ressources nécessaires.
Pourtant, nous prenons conscience à quel point les ressources planétaires sont
limités. Elle ne tient pas compte non plus de l’aplatissement constatée depuis
plusieurs années de la fameuse loi de Moore. Elle ne tient pas compte encore du
fait que la puissance de calcul n’est pas l’intelligence. Elle ne tient pas
compte enfin de l’impact sur l’économie et la société, du rejet social qu’elle ne
manquerait pas de provoquer, etc. En
conclusion l’hypothèse de la singularité technologique est une expérience de
pensée intéressante, mais elle ne résiste pas à la complexité de la réalité.
À quoi ressemble alors la courbe de l’accroissement du
progrès technologique si ce n’est pas une exponentielle ?
Une première évidence est que le progrès technologique est
une courbe croissante. Toutefois, comme pour l’évolution biologique, celle-ci n’est
pas non plus linéaire ni constante. Si l’on
considère une innovation particulière, sa propagation dans le temps est en
général assez bien décrite par une fonction en S de type sigmoïde. À un niveau plus global, l’évolution
technologique montre une succession non-linéaire d’accroissements rapides suivis
de périodes de stases plus ou moins longues. Le cas particulier de l’IA est
assez édifiant sur ce point, avec ses périodes d’intense innovation et ses « hivers »
successifs. Cela rappelle évidemment la théorie des équilibres ponctués
formulée par l’évolutionniste Stephen Jay Gould. Cela rejoint aussi l’hypothèse
que j’ai formulée il y a quelques années déjà à propos de « l’évolution aubord du chaos ».
En outre, comme dans la théorie de Gould, il peut arriver
des événements « catastrophiques » qui ralentissent fortement voir « reset »
l’évolution, avant de repartir… Or, les dangers qui nous guettent sont non-négligeables :
épuisement des ressources planétaires, pollution, réchauffement climatique, pandémie,
crise économique majeure, guerre mondiale, etc. Il faut donc espérer que notre intelligence et notre niveau
technologique, sans devenir infinis, deviennent suffisants pour les éviter ou
sinon, en atténuer les conséquences.