mar, 26/05/2009 - 21:44 par Dom
Type:
Sujet:
III/ Normes et agents
Introduction
De tout ce qui a précédé, nous avons déduit diverses informations qu'il convient à présent de mettre en relation. Nous avons par exemple rappelé qu'il existe plusieurs types de normes, dont les normes techniques et les normes sociales. Qu'il existe deux types de normes, suivant qu'elles émergent du groupe puis finissent par s'imposer ou qu'elles émergent d'une entité décisionnelle puis rendue générale. Enfin, nous avons présenté les deux thèses principales à propos des normes sociales, à savoir la distinction entre le point de vue de Weber, et le point de vue de Durkheim. En second lieu, nous avons évoqué divers agents autonomes issus de récentes recherches, ainsi que leurs aptitudes technologiques, techniques et d'une certaine manière sociale. Nous allons désormais cherché à comparer ces aptitudes avec le respect de normes sociales, d'un point de vue pratique et/ou théorique.
Des contraintes de programmation
Tu ne tueras point. Tel est le cinquième commandement du décalogue45, l'une des premières formes de code pénal, régissant les interactions sociales. Cette norme fait partie des normes sociales, érigée de type top-down, dans ce cas par Dieu lui-même selon le dogme chrétien. Pourtant, ce commandement reste néanmoins une norme sociale de type loi, et donc en tant que norme, est transgressable par les humains, au prix de conséquences fâcheuses.
De même qu'une cafetière qui électrocuterait l'utilisateur ne pourrait être vendue, il est évident qu'un robot qui puisse par sa propre décision tuer un humain ne saurait être acceptable. Cette norme sociale devra donc lui être inculquée "en dur", c'est-à-dire définitivement programmée dans son système. Ce problème a fait l'objet de très nombreuses réflexions tant il est complexe. Cependant, au prix de nombreux essais et discussions, Isaac Asimov a édicté les trois lois suivantes, connues sous le nom des trois lois de la robotique:
De même qu'une cafetière qui électrocuterait l'utilisateur ne pourrait être vendue, il est évident qu'un robot qui puisse par sa propre décision tuer un humain ne saurait être acceptable. Cette norme sociale devra donc lui être inculquée "en dur", c'est-à-dire définitivement programmée dans son système. Ce problème a fait l'objet de très nombreuses réflexions tant il est complexe. Cependant, au prix de nombreux essais et discussions, Isaac Asimov a édicté les trois lois suivantes, connues sous le nom des trois lois de la robotique:
1. Un robot ne peut porter atteinte à un être humain, ni en restant passif, permettre qu'un être humain soit exposé au danger.
2. Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi.
3. Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la seconde loi.
A ces trois lois s'ajoute une loi supplémentaire dite "Loi Zéro":
0. Un robot ne peut nuire à l’humanité ni, en restant passif, permettre que l’humanité souffre d’un mal.
2. Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi.
3. Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la seconde loi.
A ces trois lois s'ajoute une loi supplémentaire dite "Loi Zéro":
0. Un robot ne peut nuire à l’humanité ni, en restant passif, permettre que l’humanité souffre d’un mal.
Ces lois sont, dans le cas d'une IA forte, c'est-à-dire capable d'une réflexion et de décisions propres, garante d'un fonctionnement sécuritaire ne mettant pas en danger la vie d'autrui, comme une norme ISO garantissant la non électrocution d'un humain par une cafetière. Elles sont le reflet, l'image ou l'analogue des lois pénales régissant les interactions sociales entre humains. Pourtant, si en ce sens elles semblent normes sociales, nous nous heurtons par leur implémentation à un problème théorique. En effet, il devient inacceptable socialement qu'une machine sensée être un outil, un objet bénéfique pour la société humaine puisse lui faire du mal. Ces normes doivent ainsi être programmées, inscrites en dur dans la machine, par-delà tout mécanisme décisionnel. Elles sont suprêmes au libre arbitre, suprêmes à la réflexion, suprêmes à toute réinterprétation ou modification. Elles ne sont donc plus norme au sens de Weber, même plus norme au sens de Durkheim, puisque la machine ne pourra plus faire ce choix de ne plus la suivre. Elles deviendront l'usage courant, rouage d'une mécanique de précision au même sens que nous n'avons que deux mains et non trois, partie intégrante d'un mode d'emploi immuable. Il semble impossible en ce sens de parler de normes pour désigner des préceptes que l'on ne peut imaginer transgresser. Elles seront désormais normes techniques et non normes sociales, tout comme le besoin de respirer pour un humain. Un homme avec trois bras serait hors norme alors au même sens que notre robot, il serait "malade" au sens irrespectueux d'un fait sensé être immuable, un fait inacceptable pour une machine, aliénable pour un humain. De même qu'un tel humain serait considéré comme une erreur de la nature, une malformation, une aberration chromosomique, un robot qui ne suivrait pas ces préceptes ne pourrait être considéré comme sain et donc ne pourrait être accepté. Je propose ici d'appeler cette première couche les "préceptes fondamentaux" auxquels tout robot doit se soumettre. Ils garantissent une sécurité, un arrêt d'urgence. Ces préceptes rendent malheureusement caduque toute désobéissance ou toute surprise. Ils imposent un comportement indéfectiblement rationnel et calculé, prédictible en un sens, ce qui rassurera l'utilisateur.
A cette couche indéfectible, notre robot pourra ajouter divers comportements plus ou moins programmés. Dans tous les cas et relativement à notre exemple précédent, il semble difficile voir impossible de parler de normes sociales relativement à des comportements inchangeables, insurpassables par la volonté propre du robot. Politesse, comportement, serviabilité, autant de possibles qui doivent rester possibles et non obligation pour un robot social. Pourtant, supporterait-on qu'un robot soit impoli à notre égard? Supporterait-on qu'un robot refuse d'accomplir la tâche qu'on lui demande? De telles questions sont pour beaucoup une simple rhétorique, leur réponse étant d'une négative implacable.
Pour parler de politesse en temps que norme sociale, notre robot doit pourtant pouvoir ne pas dire bonjour, ne pas dire merci. C'est ceci qui lui donnerait un caractère, une identité propre, nécessaire à l'interaction sociale. Mais comment alors garantir la sympathie de chacun? Comment garantir leur amabilité ou leur convivialité? Les normes sociales semblent devoir pour eux, ne plus être normes sociales mais normes techniques, nécessaires et obligatoires. De tels robots seraient alors certifiés ISO-politesse ou ISO-galanterie. En se référent aux définitions évoquées en première partie, ces normes constituent des règles fixant les conditions d'exécution de l'objet, ici le robot, dont on veut unifier l'emploi ou assurer l'interchangeabilité, ici l'interopérabilité avec l'humain dans la société. Cette définition est précisément celle que nous avons établie pour la norme technique46. En revanche, en certifiant l'usage de la politesse, en assurant le respect des conventions sociales, notre robot n'a plus la chance de pouvoir en chaque instant réévaluer l'usage qu'il fait de la norme. Il ne peut en aucun cas la transgresser ni la transformer. Pour lui, il ne s'agit plus d'une norme sociale.
Notre question de départ obtient une réponse qui semble contradictoire avec l'idée que l'on pourrait se faire à priori, à savoir que non, les normes sociales ne sont pas implémentables aux agents autonomes non humains, car en cela elles perdent leur caractère de norme sociale, pour acquérir celui de normes techniques.
A cette couche indéfectible, notre robot pourra ajouter divers comportements plus ou moins programmés. Dans tous les cas et relativement à notre exemple précédent, il semble difficile voir impossible de parler de normes sociales relativement à des comportements inchangeables, insurpassables par la volonté propre du robot. Politesse, comportement, serviabilité, autant de possibles qui doivent rester possibles et non obligation pour un robot social. Pourtant, supporterait-on qu'un robot soit impoli à notre égard? Supporterait-on qu'un robot refuse d'accomplir la tâche qu'on lui demande? De telles questions sont pour beaucoup une simple rhétorique, leur réponse étant d'une négative implacable.
Pour parler de politesse en temps que norme sociale, notre robot doit pourtant pouvoir ne pas dire bonjour, ne pas dire merci. C'est ceci qui lui donnerait un caractère, une identité propre, nécessaire à l'interaction sociale. Mais comment alors garantir la sympathie de chacun? Comment garantir leur amabilité ou leur convivialité? Les normes sociales semblent devoir pour eux, ne plus être normes sociales mais normes techniques, nécessaires et obligatoires. De tels robots seraient alors certifiés ISO-politesse ou ISO-galanterie. En se référent aux définitions évoquées en première partie, ces normes constituent des règles fixant les conditions d'exécution de l'objet, ici le robot, dont on veut unifier l'emploi ou assurer l'interchangeabilité, ici l'interopérabilité avec l'humain dans la société. Cette définition est précisément celle que nous avons établie pour la norme technique46. En revanche, en certifiant l'usage de la politesse, en assurant le respect des conventions sociales, notre robot n'a plus la chance de pouvoir en chaque instant réévaluer l'usage qu'il fait de la norme. Il ne peut en aucun cas la transgresser ni la transformer. Pour lui, il ne s'agit plus d'une norme sociale.
Notre question de départ obtient une réponse qui semble contradictoire avec l'idée que l'on pourrait se faire à priori, à savoir que non, les normes sociales ne sont pas implémentables aux agents autonomes non humains, car en cela elles perdent leur caractère de norme sociale, pour acquérir celui de normes techniques.
De ce dont on ne parle jamais
Il me semble intéressant, dans le cadre de cette étude, d'étudier l'implication sociale de ce dont on ne parle jamais. En effet, la politesse, le comportement, l'amabilité, la serviabilité, même le ton de la voix ou, la gestuelle sont des choses que sont sensés nous apprendre nos parents tout au long de notre enfance. Pourtant, les interactions et l'acceptation sociale sont également régies par un partage de valeur, d'idéologie, d'empathie qui ne nous ait jamais ni enseigné ni évoqué. De nombreuse études de psychologie font mention de cet état de fait, présentant des résultats similaires sans pourtant que personne ne nous ai appris de telle réponse.
Des tests, que l'on peut trouver sur internet, qui servent dans les études psychologiques, permettent d'appréhender ce genre de choses: ce sont les dilemmes moraux. Prenons l'exemple du dilemme du wagonnet47. En voici l'énoncé:
Un wagon fou fonce sur 5 personnes qui se promènent sur les rails. Mais vous pouvez tourner un levier qui détournera le wagon temporairement sur une boucle sur laquelle ne se trouve qu'un seul piéton.
Dans une telle situation, la plupart des personnes trouve acceptable de détourner le wagon sur la voie n'écrasant qu'une seule personne. En revanche dans une seconde version, ce raisonnement rationnel entre en conflit avec l'affect et il devient, à ratio identique, impossible de pousser l'homme du pont. Voici la seconde version:
Un wagon fou fonce sur 5 personnes qui se promènent sur les rails. Mais vous pouvez poussez un piéton sur un pont qui, en ce faisant écraser, arrêtera le wagon, sauvant ainsi les cinq autres.
Il est évident que ce raisonnement absurde qui mêle l'affect ne pourra être compris par un robot. Pourtant, mon opinion personnelle est que des robots, aussi perfectionnés ou sécuritaires qu'ils puissent l'être ne seront jamais acceptés tant qu'ils n'auront pas des raisonnements similaires, que l'affect rend irrationnel. Au moins doivent-ils les simuler.
Une expérience intéressante conduite en 200848 montre l'importance de l'anthropomorphisation sur la manière même de réfléchir et de communiquer, d'aborder un problème incluant un agent non humain. Cette expérience consista à faire réfléchir des sujets sur le dilemme du prisonnier, avec pour certains un partenaire humain, pour d'autres un logiciel informatique, certains encore un mini robot LEGO et enfin pour les derniers, le robot BARTHOC49, conçu pour les études sur l'anthropomorphisme. Voici l'énoncé du dilemme du prisonnier50:
Deux prisonniers (complices d'un délit) sont retenus dans des cellules séparées et ne peuvent communiquer;
- si un des deux prisonniers dénonce l'autre, il est remis en liberté alors que le second obtient la peine maximale (10 ans) ;
- si les deux se dénoncent entre eux, ils seront condamnés à une peine plus légère (5 ans) ;
- si les deux refusent de dénoncer, la peine sera minimale (6 mois) pour les deux, faute d'éléments au dossier.
Durant le jeu, tous les candidats étaient soumis à un scanner, afin d'examiner les zones actives du cerveau. Les résultats de l'IRM semblent indiquer que le cerveau présente une activité localisée dans certaines zones qui ne sont pas activées avec les partenaires robotiques ou virtuels, à l'exception de BARTHOC. A savoir que ce robot qui agit tel un humain et effectue des mimiques de visage (en latex!) entraine les participants vers une réflexion de même nature que celle qu'ils ont face à un joueur humain. De plus, selon les chercheurs, les participants ont trouvé le robot anthropomorphe moins coopératif que le robot Lego et l'ordinateur. En matière de compétitivité, le partenaire humain et le robot anthropomorphe semblaient adopter la même attitude.
Cette anthropomorphisation est nécessaire pour simplement savoir comment se comporter face à un interlocuteur. Certains, face à un mourant ou à une personne lourdement handicapée se comporte comme face à un jeune enfant, utilisant une voix mielleuse et des mots simples. Ce genre de disparité entre le comportement et la situation marque la nécessité d'évaluer correctement le niveau de complexité requis d'une conversation. Cette même évaluation nous permet de ne pas employer le même ton de voix face à un bambin ou à notre patron. De même avec le robot, l'humain doit pouvoir évaluer le niveau requis pour la conversation, et ce niveau ne doit pas être trop bas pour ne pas demander une adaptation trop forte de sa part. De même qu'il serait fatiguant de parler une journée entière en mode 'bébé', il serait impensable d'obliger l'interlocuteur humain à une telle adaptation, à des efforts de déchiffrage de l'émotion face à une machine désespérément neutre, ou à des efforts d'intérêts face à une machine désespérément prévisible dans ses réponses et/ou son comportement. En définitive, socialement parlant, nous rappellerons une fois de plus, qu'il semble que l'humain doit pouvoir s'identifier à son interlocuteur. Cela constitue une norme sociale au sens de nécessité à l'interaction de qualité. La sensibilité, l'émotion, l'irrationalité en un sens sont des données que l'homme s'attend à retrouver chez son interlocuteur. Ce n'est qu'en pouvant attribuer de telles émotions que nous pouvons anthropomorphiser l'objet de l'interaction.
Des tests, que l'on peut trouver sur internet, qui servent dans les études psychologiques, permettent d'appréhender ce genre de choses: ce sont les dilemmes moraux. Prenons l'exemple du dilemme du wagonnet47. En voici l'énoncé:
Un wagon fou fonce sur 5 personnes qui se promènent sur les rails. Mais vous pouvez tourner un levier qui détournera le wagon temporairement sur une boucle sur laquelle ne se trouve qu'un seul piéton.
Dans une telle situation, la plupart des personnes trouve acceptable de détourner le wagon sur la voie n'écrasant qu'une seule personne. En revanche dans une seconde version, ce raisonnement rationnel entre en conflit avec l'affect et il devient, à ratio identique, impossible de pousser l'homme du pont. Voici la seconde version:
Un wagon fou fonce sur 5 personnes qui se promènent sur les rails. Mais vous pouvez poussez un piéton sur un pont qui, en ce faisant écraser, arrêtera le wagon, sauvant ainsi les cinq autres.
Il est évident que ce raisonnement absurde qui mêle l'affect ne pourra être compris par un robot. Pourtant, mon opinion personnelle est que des robots, aussi perfectionnés ou sécuritaires qu'ils puissent l'être ne seront jamais acceptés tant qu'ils n'auront pas des raisonnements similaires, que l'affect rend irrationnel. Au moins doivent-ils les simuler.
Une expérience intéressante conduite en 200848 montre l'importance de l'anthropomorphisation sur la manière même de réfléchir et de communiquer, d'aborder un problème incluant un agent non humain. Cette expérience consista à faire réfléchir des sujets sur le dilemme du prisonnier, avec pour certains un partenaire humain, pour d'autres un logiciel informatique, certains encore un mini robot LEGO et enfin pour les derniers, le robot BARTHOC49, conçu pour les études sur l'anthropomorphisme. Voici l'énoncé du dilemme du prisonnier50:
Deux prisonniers (complices d'un délit) sont retenus dans des cellules séparées et ne peuvent communiquer;
- si un des deux prisonniers dénonce l'autre, il est remis en liberté alors que le second obtient la peine maximale (10 ans) ;
- si les deux se dénoncent entre eux, ils seront condamnés à une peine plus légère (5 ans) ;
- si les deux refusent de dénoncer, la peine sera minimale (6 mois) pour les deux, faute d'éléments au dossier.
Durant le jeu, tous les candidats étaient soumis à un scanner, afin d'examiner les zones actives du cerveau. Les résultats de l'IRM semblent indiquer que le cerveau présente une activité localisée dans certaines zones qui ne sont pas activées avec les partenaires robotiques ou virtuels, à l'exception de BARTHOC. A savoir que ce robot qui agit tel un humain et effectue des mimiques de visage (en latex!) entraine les participants vers une réflexion de même nature que celle qu'ils ont face à un joueur humain. De plus, selon les chercheurs, les participants ont trouvé le robot anthropomorphe moins coopératif que le robot Lego et l'ordinateur. En matière de compétitivité, le partenaire humain et le robot anthropomorphe semblaient adopter la même attitude.
Cette anthropomorphisation est nécessaire pour simplement savoir comment se comporter face à un interlocuteur. Certains, face à un mourant ou à une personne lourdement handicapée se comporte comme face à un jeune enfant, utilisant une voix mielleuse et des mots simples. Ce genre de disparité entre le comportement et la situation marque la nécessité d'évaluer correctement le niveau de complexité requis d'une conversation. Cette même évaluation nous permet de ne pas employer le même ton de voix face à un bambin ou à notre patron. De même avec le robot, l'humain doit pouvoir évaluer le niveau requis pour la conversation, et ce niveau ne doit pas être trop bas pour ne pas demander une adaptation trop forte de sa part. De même qu'il serait fatiguant de parler une journée entière en mode 'bébé', il serait impensable d'obliger l'interlocuteur humain à une telle adaptation, à des efforts de déchiffrage de l'émotion face à une machine désespérément neutre, ou à des efforts d'intérêts face à une machine désespérément prévisible dans ses réponses et/ou son comportement. En définitive, socialement parlant, nous rappellerons une fois de plus, qu'il semble que l'humain doit pouvoir s'identifier à son interlocuteur. Cela constitue une norme sociale au sens de nécessité à l'interaction de qualité. La sensibilité, l'émotion, l'irrationalité en un sens sont des données que l'homme s'attend à retrouver chez son interlocuteur. Ce n'est qu'en pouvant attribuer de telles émotions que nous pouvons anthropomorphiser l'objet de l'interaction.
---
45 Décalogue: 10 commandements. Cf Exode 20 2-17
46 Cf De la pluralité des normes en général, p5 de ce rapport.
47 Nicolas BAUMARD, conférence 21 janvier 2009, UTC
48 Frank HEGEL et Al., Theory of Mind on Robots, 2008, http://aiweb.techfak.uni-bielefeld.de/files/hegeletal2008.pdf
49 BARTHOC, Anthropomorphic Robots, Université de Bielefeld, Allemagne, http://aiweb.techfak.uni-bielefeld.de/node/393
50 Melvin DRESHER, Merill FLOOD, 1950 (source secondaire: Théorie des jeux, IA02)
46 Cf De la pluralité des normes en général, p5 de ce rapport.
47 Nicolas BAUMARD, conférence 21 janvier 2009, UTC
48 Frank HEGEL et Al., Theory of Mind on Robots, 2008, http://aiweb.techfak.uni-bielefeld.de/files/hegeletal2008.pdf
49 BARTHOC, Anthropomorphic Robots, Université de Bielefeld, Allemagne, http://aiweb.techfak.uni-bielefeld.de/node/393
50 Melvin DRESHER, Merill FLOOD, 1950 (source secondaire: Théorie des jeux, IA02)
Vous avez aimé ? Offrez-nous le café !
Pas tout compris? Laissez un commentaire ou contactez-nous !