Certains EA_ sont ils des bots ?
Je plaisante mais à la base il y a un sujet tiré de diverses études, et les réponses des EA_ sont tirées de leurs fiches, dont ils ont obligations de suivre certaines réglès. Mais seraient elle rédigées par des IA ? :-)
"Les IA "empathiques" agacent les clients plus qu'ils ne les apaisent."
Je copie colle :
----------------------------------
"Des participants interagissaient avec un chatbot de service client. Ces IA commettaient des erreurs et dans certains cas, répondaient avec des formules empathiques. Dans d'autres, elles passaient directement à la suite sans commenter l'émotion de l'utilisateur.
Les phrases faussement empathiques ? "Je comprends vraiment votre frustration" ou "je suis vraiment désolé que cela vous arrive". De quoi grincer des dents en se demandant pourquoi un robot joue à l'humain.
--------------------------------
C'est exactement le type de phrases que l'on peut voir de certaines réponses des EA_ dans les forums (Et c'est pire avec l'assistance constituée évidemment de chat bots)
"Forcément, les formules empathiques ont produit l'effet inverse. Au lieu d'apaiser les clients, elles ont déclenché ce que les chercheurs appellent une "réactance psychologique". En gros, il s'agit d'une résistance instinctive que les gens ressentent quand ils ont l'impression que quelque chose empiète sur leur autonomie ou leur espace mental. L'idée qu'une machine analyse leur état émotionnel pour leur renvoyer une réponse calibrée est perçue comme intrusive, pas rassurante. (...)
(...) "L'empathie d'un chatbot peut se sentir comme une intrusion et nuire à la confiance" Les clients ont aussi jugé le chatbot moins compétent après ces formules. La perception de la qualité du service a baissé.
RAISONS ET SOLUTIONS
"Les chercheurs pointent une distinction fondamentale. L'empathie humaine marche parce qu'elle est perçue comme sincère par la personne en face. Sauf que voilà, des milliers d'entreprises ont intégré des phrases d'empathie dans leurs chatbots ces dernières années.(...)
Les chercheurs proposent d'autres approches. Des excuses ou un geste commercial sont mieux reçus qu'une formule empathique. L'objectif n'est pas de rendre le chatbot froid ou agressif. C'est d'éviter une simulation d'empathie que le client sait artificielle car il parle à une IA. Un client qui contacte un service après un problème n'attend pas de l'empathie de la part d'un logiciel. Il attend une solution."
En fait de la part d'un "humain" il est attendu la même chose sur un forum d'aide, mais il y a une subtilité... Seulement les EA_ ne sont pas aidés par EA/DICE car la communication au sein de cette sté a toujours été un problème. Ils ne peuvent donc que prendre en compte le problème et indiquer de le faire remonter... ou de chercher eux meme des solutions, si il y en a. Ils peuvent donc faire preuve AUSSI d'empathie, mais qui sera réelle (Malgré le fait qu'il y a des phrases types)
Source :