Mettons au clair immédiatement cette histoire : je n'ai
rien contre les grenouilles. Au contraire. Mais, il faut bien reconnaître
qu'elles ne brillent pas par leur intelligence collective.
Il y a bien longtemps maintenant, au siècle dernier,
l'Intelligence Artificielle "classique" cherchait à réaliser une
machine intelligente basée sur l'idée que l'on pouvait modéliser nos processus
de raisonnement indépendamment de la structure du cerveau. Fertile aux débuts, avec en particulier les systèmes
experts, cette approche a vite trouvé ses limites.
Dans le même temps, ou presque, le développement des
Réseaux Neuronaux a pris le contre pied de cette démarche en adoptant le modèle
du neurone formel. Là encore, malgré des résultats pourtant prometteurs, le
réductionnisme inhérent à la méthode n'a pas permis de dépasser le stade
d'applications mettant en scène quelques milliers de neurones artificiels.
Plus tard, l'Intelligence Artificielle Distribuée et
l'Intelligence Collective ont caressé
l'espoir de l'émergence. Il s'agit de voir apparaître des capacités cognitives
inédites d'une communauté résultant des interactions multiples entre ses
membres. Chaque agent possède une information locale et limitée et obéit à un
ensemble de règles simples. L'intérêt provient plutôt des relations entre
agents qui peuvent être nombreuses et multiples et d'où doit émerger une
structure utile à la collectivité. Chaque individu trouve alors un bénéfice à
collaborer et sa propre performance au sein du groupe est meilleure que s'il était
isolé (source Wikipédia).
Okay. Mais cela me semble un peu... utopique. C'est un
peu comme si l'on constituait une équipe de personnes ayant presque toutes les
mêmes compétences, sans chef de projet, et que l'on espérait qu'émerge une
organisation apte à résoudre les problèmes et mener le projet à son terme. On
peut en rêver, mais cela ne marche pas (bien).
J'ai en effet beau chercher, aucun exemple d'intelligence
collective de cette sorte, apte à résoudre
des problèmes complexes, ne me vient à l'esprit. Bien au contraire,
nombre d'assemblées accouchent péniblement de consensus mous, qui ne résolvent
pas grand chose si ce n'est leur propre continuité.
On me rabâchera les incontournables exemples des fourmis
et autres insectes ou agents sociaux. Je suis évidemment d'accord, les ayant
moi-même étudiés, programmés, simulés... Mais il faut bien reconnaître que ces
exemples d'intelligences collectives sont limités à des comportements
finalement assez simples : recherche de nourriture, regroupement, évitement, etc.
C'est comme si l'on s'attendait miraculeusement à ce que
l'intelligence de la fourmilière puisse
égaler ou dépasser l'intelligence humaine. Non et c'est bien là le problème. En
aucun cas, ce type de système n'est apte à résoudre des problèmes dont la complexité
dépasse de loin celle de leur propre organisation.
Si l'on souhaite progresser, il faut passer à de nouveaux
modèles d'intelligence de la multitude. Ces modèles ne sont pas simples et ne
peuvent se limiter à quelques règles élémentaires. Leur complexité ne peut
tenir compte que du local et du global. Ils seront massivement parallèles avec
de multiples niveaux d'organisations hybrides, dynamiques et interconnectés.
Alors, arriverons-nous à
sauver les grenouilles d'une extinction annoncée? Rien n'est moins sûr. Mais cela vaut le coup d'essayer,
n'est-ce pas?