Comment IA conversationnelle et téléopérateurs collaborent dans les centres d’appels IPContact ?

Pour consolider les interactions client, notre permanence téléphonique se complète par un système d’intelligence artificielle vocale : IA conversationnelle. Par la voix, notre IA innove. Elle passe ainsi de l’ère de la relation client à celle de l’expérience client, de réponses rigides des chatbots à des réponses personnalisées et adaptatives.
assistant numérique personnel
algorithme intelligent pour l'IA conversationnelle
Secrétaire externalisée IPContact
Réseau de neurones
IA Conversationnelle technologie vocale

En quoi l’IA vocale améliore-t-elle l'efficacité de nos opérateurs dans les centres d’appels IPContact ?

L’automatisation des tâches répétitives, sans valeur ajoutée, facilite le travail des téléopérateurs et télésecrétaires. Bien entendu, elle permet de gagner du temps. En outre, elle permet d’éviter des erreurs liées à la répétition. Car de la routine naît l’ennui et de l’ennui la démotivation.

La collaboration homme-robot pour un télésecrétariat augmenté

Notre IA conversationnelle est à l’image du cobot – ce robot collaboratif utilisé dans l’industrie, développé pour travailler à côté de l’humain en totale collaboration avec lui. Autrement dit, c’est l’assistant virtuel de nos agents d’accueil téléphonique, son valet numérique. En fonction de sa programmation, l’IA vocale est effectivement capable de décrocher des appels simultanés en nombre illimité. Mais aussi de comprendre et de qualifier les requêtes (prendre le nom, le prénom, l’adresse…).


En effet, notre voix de synthèse peut recueillir ou donner de l’information. Ou bien prendre rendez-vous et réorienter l’appel vers un de nos secrétaires téléphoniques qui se chargera alors de clôturer la demande. En d’autres termes, le télésecrétariat se réinvente. Ainsi, l’IA conversationnelle, véritable assistant, libère les opérateurs des tâches répétitives, pour des actions à plus forte valeur ajoutée où l’interprétation est valorisée car humaine !

Comment notre intelligence artificielle vocale complète la relation client ?

Optimiser la disponibilité des opérateurs

  • Offrir un service client et / ou un service après vente accessible 24h/24 – 7j/7
  • Réduire les temps d’attente
  • Prendre en charge les missions basiques…
Personnaliser les services
  • Segmenter les cibles clients de façon plus efficace
  • Augmenter l’engagement client en redéfinissant le parcours client
  • Répondre aux questions techniques et traiter les plaintes…
Croiser les données
  • Mettre en avant les opportunités de ventes complémentaires
  • Automatiser la transmission d’information et l’envoi d’e-mails
  • Faciliter la navigation d’objets connectés…
Assister la gestion de crise
  • Informer sur l’actualité
  • Réserver un RDV, un hébergement, un moyen de transport
  • Organiser un emploi du temps…
télésecrétaire  
Vous souhaitez optimiser votre relation client ?
Contactez-nous !

Découvrez nos solutions d’accueil téléphonique externalisé

Parlez-nous de votre projet. IPContact Group conçoit, pilote et met en œuvre, depuis 2001, des solutions externalisées qui associent compétences humaines et techniques aussi variées qu’étonnantes.

Comment l’IA conversationnelle intègre-t-elle un processus d’apprentissage ?

Synthèse vocale et IA
Au fil des conversations analysées, stockées sur d’énormes bases de données, le Machine Learning est capable d’apprendre sans pour autant avoir été programmé pour le faire. La Data est ainsi le carburant du machine learning. L’analyse des données permet tout d’abord de reconnaître. Puis d’identifier des évidences et des corrélations. Ensuite, de classer des patterns. Et enfin, de générer une prédiction de modèles complémentaires. C’est ce qu’on appelle l’apprentissage itératif. Ainsi, avec la pratique, au fil du temps, l’IA conversationnelle gagne en intelligence et les échanges s’enrichissent.

Comment fonctionne le système de reconnaissance vocale ?

Le langage oral est la façon la plus naturelle de communiquer. Encore faut-il comprendre les 180 mots prononcés en moyenne par minute. Après le processus d’apprentissage, la reconnaissance vocale est le deuxième élément-clé de l’IA conversationnelle. Alors, comment fonctionne cette commande vocale ?


Dans un premier temps, le micro capte la voix. Puis un logiciel de reconnaissance vocale transforme celle-ci en signal électrique ondulatoire. Lui-même converti en signal numérique. Lui-même retranscrit en phonèmes. Pour, au final, construire des mots ! En bref, la reconnaissance vocale est un logiciel voice-to-text (VTT). C’est-à-dire un logiciel qui transforme une requête vocale en texte dans lequel le contexte est évalué à l’aide d’un pourcentage de mots correctement reconnus. Diaphonie, accent, bruit de fond tendent à s’auto-corriger. La précision affiche déjà 95 %* de réussite.

Dès lors, tout l’enjeu se situe dans la bonne interprétation du contexte. Car la prononciation des homonymes peut transformer le sens des mots voulus et induire en erreur. Le choix de l’interprétation s’appuie donc, là aussi, sur le contexte.

Par exemple, dans l’objectif d’une prise de rendez-vous de vaccination contre la COVID-19, « diseur » doit être interprété comme une proposition d’heure : 10 heures et non comme l’application de streaming musical Deezer. De même, « failleseur » doit être compris comme étant le vaccin Pfizer (/ˈfaɪzə(ɹ)/).

Comment l’IA vocale donne-t-elle de la voix ?

Comme le logiciel voice-to-text convertit la voix en texte, la technologie du text-to-speech (TTS) compose la voix de synthèse. Alors que des outils de traitement linguistique se consacrent au découpage du texte, de phrases en mots, un synthétiseur vocal coordonne la transcription phonétique. Au final, l’association VTT et TTS génère donc la synthèse vocale.

Avec l’apport du deep-learning et son modèle de réseaux de neurones artificiels préalablement entraînés, la voix se modèle jusqu’à façonner sa propre signature sonore. Intonation, timbre, volume sonore, rythme du débit, accent, respiration, nuance… se travaillent pour simuler des émotions.

  

Téléchargez notre livre blanc !

Pour tout savoir sur nos outils CRM & télécom associés

Notre livre blanc vous apporte un éclairage pour mieux saisir les enjeux liés à la relation client : une vision d’ensemble pour vous aider à choisir les solutions répondant à vos besoins.

Apprentissage profond de l'intelligence artificielle conversationnelle
IA dans le centre d'appels IPContact

En quoi l'IA conversationnelle diffère-t-elle des SVI ou des chatbots ?

Focus sur les premiers assistants numériques contrôlés par la voix.

Contrôler sa maison par la voix, vous souvenez-vous des services IFTTT ? Dès 2010, les « If this then that » ont révolutionné la domotique en interconnectant des services web. Les IFTTT déclenchaient automatiquement une série d’actions dès qu’une première se produisait. Google assistant et Google Home les ont d’ailleurs intégrés rapidement. Il était ainsi possible de concevoir des scénarios entre différents objets connectés !

Bien entendu, dans le domaine de la relation client, les bots et autres chats étaient déjà présents. Comme, par exemple, dans l’e-commerce à travers une application de messagerie instantanée, un logiciel de permanence téléphonique ou un callback. Ils permettaient alors de réaliser de fortes économies. D’ailleurs, chiffrée pour 2023 à près de 11 milliards de dollars annuels, la réduction des coûts est intrinsèquement liée à l’automatisation des réponses des services client.

Le serveur vocal interactif (SVI) administrait les appels 

Cet outil informatique et télécom orientait les appels. Il posait tout d’abord des questions. Puis il attendait une validation par la pression d’une touche numérotée du clavier du téléphone. « Appuyez sur la touche 1 pour…, sur la touche 2 pour… »

La dernière génération de SVI intègre certes la reconnaissance vocale. Mais là encore, uniquement pour diriger le flux d’appel. La détection de mots-clés prononcés et reconnus dans une base de données entraîne une série d’action. Cependant, les échanges ne laissent place à aucune interprétation. Et la non-reconnaissance du mot-clé suspend systématiquement l’interaction.

Les chatbots orchestraient les données

Par un programme informatique paramétré, le chatbot simule une conversation en langage naturel en interrogeant, là encore, un service préétabli de conversations entièrement orchestrées. Comme pour le SVI, pour délivrer une réponse préenregistrée, le chat bot s’appuie sur une base de connaissances. Là aussi, l’utilisation de mots-clés repérés dans la conversation déclenche un scénario de questions-réponses.

Là où le chatbot se différencie du SVI, c’est qu’il est multicanal. En effet, les appelants échangent avec lui directement sur le web, via une messagerie instantanée. Ou bien par les réseaux sociaux ou une application digitale de smartphone…

L’intelligence artificielle vocale révolutionne les échanges

Ni le SVI ni le chatbot ne permettent de comprendre l’intention de la demande. Et à chaque nouvelle utilisation, ils repartent à zéro. Toutefois, le progrès de l’apprentissage automatique de l’Intelligence Artificielle vocale permet de créer, aujourd’hui, des agents conversationnels virtuels capables de s’optimiser au fur et à mesure de leur utilisation. D’ailleurs, notre  IA conversationnelle se substitue aux applications mobiles et autres plateformes en ligne, en proposant un service plus accessible, plus intuitif par commande vocale.

D’ici 2023, dans les secteurs de la vente au détail, de la banque et de la santé, l’intelligence artificielle vocale entraînera une économie estimée à près de 2,5 milliards d’heures** .

*Chiffre du service R&D Logicielnet où les 3 ans de recherche, cofinancée par nos fonds propres et la BPIfrance, permettent d’afficher aujourd’hui un taux de compréhension des demandes à plus 95%.
**Source : Juniper Research : Chatbots to Deliver $11bn in Annual Cost Savings for Retail, Banking & Healthcare Sectors by 2023.