Dialogue avec Socrate sur l’IA, la robotique et le libre arbitre

Si Socrate était vivant aujourd’hui, que dirait-il des robots autonomes? lors d’un dialogue avec un ingénieur.

– “L’IA est l’âme de la robotique en essaim” déclare l’ingénieur.

– « Eh bien, c’est une grande affirmation », a répondu Socrate; « Quand j’écoute les gens, j’ai l’impression que l’IA est une superpuissance magique qui transcende toute raison … Dites-moi, qu’est-ce que l’IA?  »

– Et l’ingénieur de répondre: « de toutes les définitions que j’ai pu voir, la plus complète est celle d’Arend Hintze, professeur en informatique et ingénierie à l’université du Michigan :Il définit l’IA en 4 types. »

·  L’IA de type I: Machines réactives

Il s’agit de systèmes d’IA purement réactifs, qui n’ont pas la capacité de former des souvenirs ni d’utiliser les expériences passées pour éclairer les décisions en cours. Ce type d’intelligence implique que l’ordinateur perçoive le monde directement en temps réel et agisse sur ce qu’il voit.  Ces machines se comportent exactement de la même manière chaque fois qu’elles rencontrent la même situation. Un exemple est Deep Blue d’IBM, le super-ordinateur qui joue aux échecs.

·  L’IA de type II: Mémoire limitée
Dans cette méthode, les expériences spécifiques affinent la performance, mais les expériences de la machine sont seulement passagères, du fait de la mémoire limitée. Les véhicules autonomes utilisent principalement cette méthode. Par exemple, en identifiant et apprenant à contrôler certains items, le véhicule apprend à éviter un autre véhicule lors d’un changement de file.
·  L’IA de type III: Théorie de l’esprit
En sciences cognitives, la Théorie de l’esprit désigne les processus cognitifs permettant à un individu d’attribuer un état mental -croyance, intention, désir, jeu, connaissance, etc.- à lui-même ou à une autre personne. L’objectif de ce type d’IA est alors pour la machine de comprendre que les humains ont des pensées et des émotions qui affectent leurs comportements. Cette machine pourrait ainsi adapter ses actions à l’esprit humain. L’exemple d’application est l’assistance aux séniors.
·  L’IA de type IV: La conscience de soi (self awareness)
Le plus haut niveau d’IA. La machine est consciente de ce qu’elle peut faire et agir en conséquence.

– “Hmm, je suis intrigué sur ce dernier type d’IA, le type IV. Pensez-vous possible de construire un robot doté de conscience de soi? » interroge Socrate.

– «Et bien, pour ce faire, nous devons commencer par nous inspirer de la nature afin de trouver une créature simple qui pourrait servir de modèle

– «Simple comme un ver de terre ?”

– «Non, nous avons besoin d’une créature plus sophistiquée. L’exemple le plus classique est la fourmi

– « Je ne suis pas entomologiste », dit Socrate, « mais, par observation, je peux voir que les fourmis sont des insectes sociaux capables de coordonner leurs actions. Si vous souhaitez utiliser les fourmis comme modèles, il s’agit avant tout de décrire leurs modes opératoires, n’est ce pas ? »

– «Absolument. Le 1er principe observable est que les fourmis sont conscientes de ce qu’elles peuvent faire. Une fourmi sait, par exemple, le poids qu’elle peut porter ; si ce qu’elle a à transporter est trop lourd, elle aura une fourmi volontaire pour l’aider.»

– « Vous avez dit –elle aura une fourmi volontaire– , intéressant, mais comment obtient-elle cette aide volontaire ? demande Socrate.

– « La fourmi communique ses besoins par phéromones ».

– «Si j’en crois votre description, la fourmi doit être consciente de ses capacités et grâce à cette conscience de soi, elle peut communiquer ses besoins aux autres fourmis. Il me semble effectivement que vous avez là votre modèle d’inspiration. Pour construire un robot doté de conscience de soi, le robot doit auto-détecter son ensemble de compétences/capacités et communiquer ses besoins par un mécanisme similaire aux phéromones.
– «Vous avez raison, Socrate »

 – « Je n’ai ni raison, ni tort ; je ne fais que paraphraser ce que vous m’avez dit », « et nous n’avons pas fini cette conversation. Nous avons abordé l’IA dans le cadre de votre déclaration liminaire : l’IA est l’âme des robots en essaim. Qu’elle est donc votre définition de l’âme ? Ma compréhension de l’âme est qu’avoir une âme, c’est avoir le pouvoir de connaissances et le libre arbitre. » déclare Socrate. « La conscience de soi peut être la source de connaissances, mais cette connaissance est inutile, tant que le robot n’acquiert pas le libre arbitre. »

– “Oh Socrate, et comment proposez-vous que nous y parvenions ? »

– « Vous m’avez déjà fourni la réponse, reconnaissez-le ; Vous avez dit la fourmi capable d’avoir un volontaire par l’usage de phéromones, n’est-ce pas finalement l’exercice de son libre arbitre ? En science de l’ingénieur, vous dites Autonomie, pour nommer le libre arbitre, c’est vrai, n’est ce pas ? »

– « C’est correct, mais après la définition de l’IA, puis celle de l’âme, je pense que vous allez me demander de vous expliquer  « en essaim ». Tout en rappelant que nous faisons référence à la « Connaissance/Cognition dans le modèle d’insectes sociaux, utilisons le terme « d’intelligence en essaim », en le définissant comme un comportement collectif dans des systèmes auto-organisés et décentralisés ».

– « dans ce cas, il faut éviter les incompréhensions et reformuler votre déclaration que l’IA est l’âme de la robotique en essaim par « l’intelligence sociale des robots est obtenue par la conscience de soi et l’autonomie », qu’en pensez-vous ?

– «Vous avez raison, mais nous devons passer de la philosophie à l’implémentation.»

– «N’avons-nous donc rien appris de notre dialogue ? Au sein de notre discussion, il suffit de modifier notre terminologie » répond Socrate. « Au lieu de phéronomes, parlons de « référentiels de tâches » où les membres de l’essaim viennent déposer leurs intentions. La connaissance étant inutile sans libre arbitre, chaque membre de l’essaim doit librement envoyer des agents autonomes en recherche de tâches à accomplir. Ainsi, les fourmis agissent solidairement. Pourquoi en serait-il différemment des robots ? et Socrate d’ajouter : « la beauté de l’implémentation est que chaque entité, un robot ou un moteur de calcul, peut fournir et demander de l’aide quelles que soient ses capacités. Ce principe opératoire s’ajuste parfaitement au concept d’Edge Computing. »

– «Je vois… Chaque robot étant conscient de ses propres capacités, l’agent qui le représente sait quelles tâches aller chercher. Cela ouvre la voie à la coopération hétérogène de robots aux différentes fonctionnalités. Mais alors, n’est-il pas dangereux de doter ces robots et agents de libre arbitre? »

– « Permettez-moi cet anachronisme que de citer Thomas Aquinas : le dernier dans l’ordre d’exécution est le premier dans l’ordre de l’intention. Pour l’intérêt de ce dialogue, le sujet d’attribution ultime est bien donné par le programmeur du robot et non le robot ; le robot n’est que le messager de la volonté d’un autre. Une meilleure question serait : n’est-il pas dangereux d’avoir un programmeur aux intentions malveillantes ?  Pour une telle personne, le robot n’est que circonstanciel, ce n’est pas la source de ses actions.

Auteur:

Alfonso Iñiguez  est le fondateur de SWARM TECHNOLOGY, à l’origine des cinq principes de l’intelligence en essaim et inventeur de l’architecture en cellules solidaires – the Solidarity Cell Architecture. Il est titulaire de deux brevets dans le domaine du heterogeneous Processing  – traitement hétérogène et de l’autonomie basée sur l’intention, dont Swarm Technology est propriétaire.

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s