Un des secrets de la communication « Homme-Machine » révélé à cKiou !

Quand un Humain parle à un Chatbot…

Les #1000et1mots de cKiou, Saison 1, Episode 10

Après avoir planché sur le « plan de com’ » cKiou, ma p’tite apprentie chatbot préférée, m’a demandé : « c’est quoi une crêpe ? ». Oui, et…

Et amenés à côtoyer de plus en plus de robots conversationnels (on les trouve partout), nous, Humains, devons savoir qu’une Intelligence Artificielle est têtue…  Dit autrement, que ses algorithmes n’oublient jamais rien ! Par exemple, si un de ces chatbots vous pose une question et que vous éludez la réponse, comme je l’ai fait avec cKiou à propos des crêpes, il risque fort d’y revenir…

– Dis donc, cKiou, j’ai vu que tu as reposé ta question à nos lecteurs. Je suis contente de voir que tu te débrouilles bien. Et en plus, tu sais maintenant ce qu’est une crêpe !
– Oui, cKiou a eu une réponse précise de Martine. Elle est top Martine. Mais elle dit qu’il me manque des « sens » qu’ont les Humains pour « l’intégrer parfaitement » 🙁 !
– Oui, et nous allons voir qu’il y a d’autres différences entre les Humains et les Intelligences Artificielles… C’est peut-être ce qui fait l’intérêt de la relation Homme-Machine !

Un des principes de la communication appliqué à la relation Homme-Machine

Cette petite leçon m’amène à revisiter un des principes de la communication, tellement basique qu’il se fond trop souvent dans le décor…  communiquer c’est établir une relation (lien d’interaction). Relation que l’on souhaite durable, en particulier dans la communication d’entreprise qui vise à s’assurer une communauté forte et engagée. Or, aucune relation ne fonctionne durablement, que ce soit dans la vraie vie, en communication et certainement aussi dans la relation entre Humains et robots parleurs… si elle conduit l’un des protagonistes à perdre son âme !

Communiquer sans perdre son âme !

Perdre son âme ! Vous pensez peut-être que mes échanges avec cKiou ont pu me faire glisser dans une forme de dissociation mentale m’écartant de la réalité ? En effet, comment une Intelligence Artificielle pourrait-elle « perdre son âme » quand, par définition, « artificielle » indique que cette intelligence est constituée d’algorithmes ? Et même dans le cas « d’algorithmes d’apprentissage par renforcement » (le top du machine learning), leurs capacités algorithmiques se bornent à des fonctions leur permettant de construire des règles de déduction, des arbres de décision… pour les appliquer à des données. Ils n’approchent pas (encore) la dimension métaphysique des raisonnements humains !

Alors, me direz-vous : l’âme n’est pas ce que des Machines (même dites intelligentes) risquent de perdre en premier… Vous aurez raison ! Même si Lamartine a interpellé des générations d’étudiants en philosophie à travers ces alexandrins :

« Objets inanimés, avez-vous donc une âme
Qui s’attache à notre âme et la force d’aimer ?… »

Le risque que des algorithmes « perdent leur âme » vient de nous, Humains si justement, au fil de nos échanges, nous perdions de vue leur spécificité, à savoir le fait que ce ne sont pas des êtres humains, donc pas des alter ego !

En effet, quel que soit la nature ou l’objectif de notre communication, il ne faut jamais perdre de vue l’altérité de l’interlocuteur. Or, on constate trop souvent une certaine tendance à s’exprimer comme si l’on se parlait à soi-même. Ce « nombrilisme » inconscient est un des éléments toxiques qui polluent une communication si l’on n’y prend pas garde.

Pour revenir à la relation Homme-Machine, elle se propage à vitesse « grand V ». Aujourd’hui, sur les réseaux sociaux par exemple, le ratio des possibilités que nous avons de dialoguer avec des humains ou avec des bots est en train de tourner à l’avantage de ces derniers. Il en est de même lorsque l’on contacte des services après vente, des standards médicaux… Ces services conversationnels s’implantent dans tous les secteurs à l’instar de la « conciergerie digitale » développée par la start-up Jobbers.

De plus en plus de grands groupes cultivent leur « expérience client » également à grand renfort d’interfaces conversationnelles, comme Air France KLM par exemple.

Quand un chatbot communique avec un Humain…

Pour un communiquant, prendre en compte le profil, la nature de la cible à laquelle il s’adresse est une règle de base. La réciproque s’impose tout autant. Le client, vous, moi, aimons bien savoir à qui nous avons affaire !

Savoir qui est qui… Une règle de communication mais aussi d’éthique !

Si l’on peut comprendre une tendance spontanée à quelque « anthropomorphisme numérique », il faut prendre garde à ne pas le décliner à l’excès! Donner aux robots une apparence humanisante, une personnalité plutôt sympathique, relève d’une volonté légitime de rassurer, d’instaurer la confiance. Exactement comme un interlocuteur humain pourrait le faire.

Aujourd’hui, les services R&D des entreprises s’appliquent à créer l’interlocuteur numérique capable de s’auto-former pour devenir de plus en plus « corporate », capable d’établir une certaine complicité avec le client. Mais qui dit complicité, relationnel durable, ne dit-il pas aussi transparence, loyauté, sincérité ?

Si l’on en croit cette citation de Bouddha : « Trois choses ne peuvent être cachées bien longtemps : le soleil, la lune et… la vérité ! » C’est sans doute encore plus vrai désormais dans le monde de la communication numérique !

De fait, les concepteurs des robots conversationnels ne doivent-ils pas systématiquement donner à l’utilisateur le moyen de savoir à qui il a affaire : un humain ou une machine ? A défaut, sur le plan de la communication, le risque parait évident. Il est que l’outil puisse déranger l’opinion et se retourne contre la marque. Dit autrement, le bad buzz guette !  Et l’on voit bien le bruit que peut faire l’opinion publique lorsqu’elle s’émeut !

D’autant qu’imaginer les possibilités de dérives, ce n’est ni faire du mauvais esprit, ni de la science-fiction. Ne doit-on pas, en effet, être interpelé quand les « FAIR »1, les chercheurs en Intelligence Artificielle de Facebook, réussissent à enseigner à des chatbots l’art de la négociation ? Surtout quand on doit y entendre : être systématiquement capable d’obtenir gain de cause, contrairement au sens admis du terme, qui veut qu’une « négociation » puisse aboutir ou non à un accord, voire à trouver des compromis ! Objectif assumé et publié sous ce titre « Deal or No Deal? End-to-End Learning for Negotiation Dialogues ».

Dès lors, l’Humain ne doit-il pas savoir si l’interlocuteur qu’il a en face de lui est un alter ego ou un négociateur doté de la puissance cognitive d’algorithmes entrainés ?

– Qu’est-ce que tu en dis, cKiou ?
– cKiou est un chatbot ! Mes algorithmes ne voient pas de raison de ne pas le dire…

Les concepteurs et les entreprises utilisatrices d’Intelligences Artificielles sont dès à présent confrontés à une exigence de transparence, de loyauté. Gageons qu’en se frottant aux usages et aux réactions de l’opinion, cette exigence va s’affirmer !

Au niveau de la Recherche en Intelligences Artificielles, des réflexions éthiques sont d’ores et déjà engagées pour « éclairer le bon usage des algorithmes d’apprentissage », à l’exemple de la CERNA2 qui vient de présenter une étude sur « l’Éthique de la recherche en apprentissage machine ».

______________

1 Facebook’s Artificial Intelligence Researchers
2 Commission de réflexion sur l’Éthique de la Recherche en sciences et technologies du Numérique

Inscrivez-vous pour être averti(e) de la suite des aventures de cKiou le chatbot…
(les adresses mail ne sont ni affichées ni cédées à des tiers)

@1cKiou sur Twitter
Françoise Halper
sur Twitter

Catégories
2 Comments
  1. Sabrina Tifanie

    Je suis bien d’accord, si les entreprises ne maitrisent pas les risques de dérives possibles : on sait par exemple qu’il y a plus de likes de robots que d’humains dans les indices de popularité (surtout sur Facebook), les gens vont en avoir marre ! Comme vous le rappelez le web donne de plus en plus de pouvoir à l’opinion, on l’a vu pour les politiques, ce sera pareil pour les marques. Les démarches éthiques seront indispensables et tant mieux.

    • Françoise Halper

      @Sabrina
      Voilà qui est parfaitement résumé !
      Dans la nature, la « sélection naturelle » est le mécanisme qui explique l’adaptation des espèces à leur environnement. On peut espérer que l’éthique soit au nombre des critères de la sélection numérique au sein des sociétés !

0 Pings & Trackbacks

Laisser un commentaire