Forum Discussion

FR_Bidochon's avatar
FR_Bidochon
Seasoned Ace
10 hours ago

Certains EA_ sont ils des bots ?

Je plaisante mais à la base il y a un sujet tiré de diverses études, et les réponses des EA_ sont tirées de leurs fiches, dont ils ont obligations de suivre certaines réglès. Mais seraient elle rédigées par des IA ? :-)

"Les IA "empathiques" agacent les clients plus qu'ils ne les apaisent."

Je copie colle : 

----------------------------------

"Des participants interagissaient avec un chatbot de service client. Ces IA commettaient des erreurs et dans certains cas, répondaient avec des formules empathiques. Dans d'autres, elles passaient directement à la suite sans commenter l'émotion de l'utilisateur.

Les phrases faussement empathiques ? "Je comprends vraiment votre frustration" ou "je suis vraiment désolé que cela vous arrive". De quoi grincer des dents en se demandant pourquoi un robot joue à l'humain.

--------------------------------

C'est exactement le type de phrases que l'on peut voir de certaines réponses des EA_  dans les forums (Et c'est pire avec l'assistance constituée évidemment de chat bots)

"Forcément, les formules empathiques ont produit l'effet inverse. Au lieu d'apaiser les clients, elles ont déclenché ce que les chercheurs appellent une "réactance psychologique". En gros, il s'agit d'une résistance instinctive que les gens ressentent quand ils ont l'impression que quelque chose empiète sur leur autonomie ou leur espace mental. L'idée qu'une machine analyse leur état émotionnel pour leur renvoyer une réponse calibrée est perçue comme intrusive, pas rassurante. (...)

(...) "L'empathie d'un chatbot peut se sentir comme une intrusion et nuire à la confiance" Les clients ont aussi jugé le chatbot moins compétent après ces formules. La perception de la qualité du service a baissé.

RAISONS ET SOLUTIONS

"Les chercheurs pointent une distinction fondamentale. L'empathie humaine marche parce qu'elle est perçue comme sincère par la personne en face. Sauf que voilà, des milliers d'entreprises ont intégré des phrases d'empathie dans leurs chatbots ces dernières années.(...)

Les chercheurs proposent d'autres approches. Des excuses ou un geste commercial sont mieux reçus qu'une formule empathique. L'objectif n'est pas de rendre le chatbot froid ou agressif. C'est d'éviter une simulation d'empathie que le client sait artificielle car il parle à une IA. Un client qui contacte un service après un problème n'attend pas de l'empathie de la part d'un logiciel. Il attend une solution."

En fait de la part d'un "humain" il est attendu la même chose sur un forum d'aide, mais il y a une subtilité... Seulement les EA_ ne sont pas aidés par EA/DICE car la communication au sein de cette sté a toujours été un problème. Ils ne peuvent donc que prendre en compte le problème et indiquer de le faire remonter... ou de chercher eux meme des solutions, si il y en a. Ils peuvent donc faire preuve AUSSI d'empathie,  mais qui sera réelle (Malgré le fait qu'il y a des phrases types)

Source : 

https://misq.umn.edu/misq/article/doi/10.25300/MISQ/2026/18683/3830/Bots-with-Empathy-Reactance-Against-Emotion-Aware?

3 Replies

  • FR_Bidochon's avatar
    FR_Bidochon
    Seasoned Ace
    3 hours ago

    EA_Cath​ 

    Bonsoir

    Je me doute qu'il n'y a aucune IA parmi les CM et c'est ce que je soulignais dans mon dernier paragraphe :-) 

    En fait à la lecture du rapport cela m'avait amusé de retrouver certaines expressions à l'identique  ici, ou sur les ea.forum étrangers, et que l'on retrouvait chez les IA , donc je n'ai pu résister :-)

    Bon après, il est vrai que vous êtes obligé(es) de temporiser,  lorsqu'un sujet part ou "peut" partir en vrille afin d'éviter les dérives, tout comme il faut rassurer les utilisateurs pour ne pas qu'ils se sentent abandonnés,  qu'ils soient rassurés,  et de temporiser en attendant une solution, alors que vous n'êtes pas responsables de problèmes qui ne sont pas de votre fait et sur lesquels vous n'avez pas prise.   Il y a donc des expressions auxquelles vous ne pouvez échapper et ca passe. L'étude montre juste que cela passe moins lorsque cela émane des chatbots

    Du reste qui dit que ce ne sont pas les IA qui ont copié les comportements humains pendant leur phase d'apprentissage ? :-)

  • callos1's avatar
    callos1
    Seasoned Veteran
    4 hours ago

    oui les IA  ont beaucoup de garde fou et tu peux avoir ce ressenti de fausse empathie récurrent. Elles sont conçu ainsi pour évité de blessé des gens trop fragile et justement évité de présenté des excuses (qui avoue une faute de conception d'un jeu, par contre elles s'excusent assez facilement si tu n'aimes pas la réponse et que tu peux  prouver leurs torts) un geste commercial qui sera en inadéquation avec le système actuel "au profit des actionnaires" tu vas en voir de moins en moins souvent 

     

  • EA_Cath's avatar
    EA_Cath
    Icon for Community Manager rankCommunity Manager
    7 hours ago

    Bonjour FR_Bidochon​ ,

    Il n'y a aucune IA parmi les Community Managers des Forums EA, rassurez-vous 😅

    Si vous voyez certaines expressions revenir ("Navré-e de lire que vous rencontrez tel problème", "Désolé-e pour la gêne occasionnée" etc) c'est surtout une question d'habitude: ça m'arrive de le dire si une personne exprime beaucoup sa frustration sur un sujet (tout en restant cordiale), ou si un bug est très impactant ou si il dure depuis un moment par exemple.

    Certain-e-s de mes collègues sont basés en Amérique du Nord aussi où ces expressions se retrouvent beaucoup dans les services clients et paraissent plus naturelles.

Featured Places