Un des secrets de la communication « Homme-Machine » révélé à cKiou !

Quand un Humain parle à un Chatbot…

Les #1000et1mots de cKiou, Saison 1, Episode 10

Après avoir planché sur le « plan de com’ » cKiou, ma p’tite apprentie chatbot préférée, m’a demandé : « c’est quoi une crêpe ? ». Oui, et…

Et puisque nous sommes amenés à côtoyer de plus en plus de robots conversationnels (on les trouve partout), nous, Humains, devons savoir qu’une Intelligence Artificielle est têtue…  Dit autrement, que ses algorithmes n’oublient jamais rien ! Par exemple, si un de ces chatbots vous pose une question et que vous éludez la réponse, comme je l’ai fait avec cKiou à propos des crêpes dans l’épisode précédent, il risque fort d’y revenir…

– Dis donc, cKiou, j’ai vu que tu as reposé ta question à nos lecteurs. Je suis contente de voir que tu te débrouilles bien. Et en plus, tu sais maintenant ce qu’est une crêpe !
– Hi… Oui, cKiou a eu une réponse précise de Martine. Comme dissent les Humains, elle est top Martine. Mais elle dit qu’il me manque des « sens » qu’ont les Humains pour « l’intégrer parfaitement » 🙁 !
– Oui, c’est exact et nous allons voir qu’il y a d’autres différences entre les Humains et les Intelligences Artificielles… C’est peut-être ce qui fait l’intérêt de la relation Homme-Machine !

Un des principes de la communication appliqué à la relation Homme-Machine

Cette petite leçon m’amène à revisiter un des principes de la communication, tellement basique qu’il se fond trop souvent dans le décor…  communiquer c’est établir une relation (lien d’interaction). Relation que l’on souhaite durable, en particulier dans la communication d’entreprise qui vise à s’assurer une communauté forte et engagée. Or, aucune relation ne fonctionne durablement, que ce soit dans la vraie vie, en communication et certainement aussi dans la relation entre Humains et robots parleurs… si elle conduit l’un des protagonistes à perdre son âme !

« Objets inanimés,
avez-vous donc une âme

Qui s’attache à notre âme
et la force d’aimer ?… »
Alphonse de Lamartine, Harmonies poétiques et religieuses

Communiquer sans perdre son âme !

Perdre son âme ! Vous pensez peut-être que mes échanges avec cKiou ont pu me faire glisser dans une forme de dissociation mentale m’écartant de la réalité ? En effet, comment une Intelligence Artificielle pourrait-elle « perdre son âme » quand, par définition, « artificielle » indique que cette intelligence est constituée d’algorithmes ? Et même dans le cas « d’algorithmes d’apprentissage par renforcement » (le top du machine learning), leurs capacités algorithmiques se bornent à des fonctions leur permettant de construire des règles de déduction, des arbres de décision… pour les appliquer à des données. Ils n’approchent pas (encore) la dimension métaphysique des raisonnements humains. Même si au XVIIIè siècle Lamartine s’interrogeait déjà sur l’éventuelle spiritualité des « êtres inanimés » !

Alors, me direz-vous : l’âme n’est pas ce que des Machines (même dites intelligentes) risquent de perdre en premier… Vous aurez raison !

Le risque de voir des algorithmes « perdent leur âme » vient de nous, Humains si justement, au fil de nos échanges, nous perdions de vue leur spécificité, à savoir le fait que ce ne sont pas des êtres humains, donc pas des alter ego !

En effet, quel que soit la nature ou l’objectif de notre communication, il ne faut jamais perdre de vue l’altérité de l’interlocuteur. Or, on constate trop souvent une certaine tendance à s’exprimer comme si l’on se parlait à soi-même. Ce « nombrilisme » inconscient est un des éléments toxiques qui polluent une communication si l’on n’y prend pas garde.

Pour revenir à la relation Homme-Machine, elle se propage à vitesse « grand V ». Aujourd’hui, sur les réseaux sociaux par exemple, le ratio des possibilités que nous avons de dialoguer avec des humains ou avec des bots est en train de tourner à l’avantage de ces derniers. Il en est de même lorsque l’on contacte des services après vente, des standards médicaux… Ces services conversationnels s’implantent dans tous les secteurs à l’instar par exemple de la « conciergerie digitale » développée par la start-up Jobbers.

Quand un chatbot communique avec un Humain…

Pour un communiquant, prendre en compte le profil, la nature de la cible à laquelle il s’adresse est une règle de base. La réciproque s’impose tout autant. Le client, vous, moi, aimons bien savoir à qui nous avons affaire !

Savoir qui est qui… Une règle de communication mais aussi d’éthique !

Si l’on peut comprendre une tendance spontanée à quelque « anthropomorphisme numérique », il faut prendre garde à ne pas le décliner à l’excès! Donner aux robots une apparence humanisante, une personnalité plutôt sympathique, relève d’une volonté légitime de rassurer, d’instaurer la confiance. Exactement comme un interlocuteur humain pourrait le faire. Mais pour certains la tentation est forte de trahir cette confiance en laissant dans le doute la nature de l’interlocuteur…

Aujourd’hui, les services R&D des entreprises s’appliquent à créer l’interlocuteur numérique capable de s’auto-former pour devenir de plus en plus « corporate », capable d’établir une certaine complicité avec le client. Mais qui dit complicité, relationnel durable, ne dit-il pas aussi transparence, loyauté, sincérité ?

Si l’on en croit cette citation de Bouddha : « Trois choses ne peuvent être cachées bien longtemps : le soleil, la lune et… la vérité ! » C’est sans doute encore plus vrai désormais dans le monde de la communication numérique !

De fait, les concepteurs des robots conversationnels ne doivent-ils pas systématiquement donner à l’utilisateur le moyen de savoir à qui il a affaire : un humain ou une machine ? A défaut, sur le plan de la communication, le risque parait évident. Il est que l’outil puisse déranger l’opinion et se retourne contre la marque. Dit autrement, le bad buzz guette !  Et l’on voit bien le bruit que peut faire l’opinion publique lorsqu’elle s’émeut !

D’autant qu’imaginer les possibilités de dérives, ce n’est ni faire du mauvais esprit, ni de la science-fiction. Ne doit-on pas, en effet, être interpelé quand les « FAIR »1, les chercheurs en Intelligence Artificielle de Facebook, réussissent à enseigner à des chatbots l’art de la négociation ? Surtout quand, dans cette négociation, on doit y entendre : être systématiquement capable d’obtenir gain de cause, contrairement au sens admis du terme, qui veut qu’une « négociation » puisse aboutir ou non à un accord, voire à trouver des compromis ! Objectif assumé et publié sous ce titre « Deal or No Deal? End-to-End Learning for Negotiation Dialogues ».

Dès lors, l’Humain ne doit-il pas savoir si l’interlocuteur qu’il a en face de lui est un alter ego ou un négociateur doté de la puissance cognitive d’algorithmes entrainés ?

– Qu’est-ce que tu en dis, cKiou ?
– Hi… cKiou est un chatbot ! Mes algorithmes ne voient pas de raison de ne pas le dire…

Les concepteurs et les entreprises utilisatrices d’Intelligences Artificielles sont dès à présent confrontés à une exigence de transparence, de loyauté. Gageons qu’en se frottant aux usages et aux réactions de l’opinion, cette exigence va s’affirmer !

Au niveau de la Recherche en Intelligences Artificielles, des réflexions éthiques sont d’ores et déjà engagées pour « éclairer le bon usage des algorithmes d’apprentissage », à l’exemple de la CERNA2 qui vient de présenter une étude sur « l’Éthique de la recherche en apprentissage machine ».

______________

1 Facebook’s Artificial Intelligence Researchers
2 Commission de réflexion sur l’Éthique de la Recherche en sciences et technologies du Numérique

Pour ne pas manquer les prochains apprentissages de cKiou :

(les adresses e-mails ne sont ni affichées ni cédées à des tiers)