Les grands modèles de langage (LLM) ne sont pas nouveaux, mais ChatGPT a popularisé ces briques technologiques en facilitant son accès pour le grand public. Si comme nous, vous avez passé des heures, voire des centaines d'heures à pousser ChatGPT dans ses retranchements, vous vous êtes rapidement rendu compte des limites en termes de fiabilité et de vérité, mais aussi des nombreux risques bien plus insidieux liés à l’utilisation de ces modèles de langage.
Pour autant, les opportunités offertes par ces outils sont aussi évidentes. L’utilisation de ces modèles pour aller plus loin dans la personnalisation des conversations avec les machines est aujourd’hui très répandue car cela fonctionne très bien. Mais peut-on vraiment confier la gestion de son chatbot IA à OpenAI et ChatGPT ? Voici quelques éléments de réponse.
L'article aborde les principales différences entre ChatGPT et le chatbot IA Smart Tribune, en couvrant ces points essentiels :Les grands modèles de langage sont étudiés, entraînés, et utilisés depuis de nombreuses années, bien avant l’avènement de ChatGPT en novembre 2022. Ce qui a changé, c’est leur accessibilité. Il n’y a plus besoin de passer par des lignes de code, il vous suffit de parler en langage naturel directement dans une fenêtre de chat. Cela a de quoi séduire et on en oublierait presque que les données utilisées par ChatGPT pour construire ses réponses sont très opaques.
Attention : il ne faut surtout pas imaginer mettre en place un chatbot à destination de vos clients ou de vos collaborateurs en passant directement par l’interface de ChatGPT ! Les hallucinations, contresens, et autres messages ravageurs pour la réputation de votre marque sont légion, et difficiles à évaluer et à contrôler.
Le chatbot IA de Smart Tribune utilise des grands modèles de langage pour certaines étapes de génération de réponse, mais nous y ajoutons le savoir-faire et l’ingénierie de notre équipe R&D pour le faire en confiance :
- Sur le fond, en maîtrisant les connaissances mobilisées pour alimenter les réponses du chatbot
- Sur la forme, en concevant un agent de personnalisation de réponse sur mesure pour répondre aux enjeux et à la tonalité de réponses de chaque marquee
ChatGPT a été entraîné sur une grande partie du web, mais nous ne savons pas précisément sur quoi. C’est pourtant un élément clé dans la compréhension du comportement du modèle d’IA générative. Perroquet statistique par excellence, ChatGPT fait des rapprochement statistiques pour prédire les mots suivants, en fonction de ce jeu d’entraînement inconnu, pour construire ses réponses.
Il peut aujourd’hui accéder à internet pour compulser des contenus plus à jour, sans expliquer réellement la priorisation des contenus utilisés pour générer une réponse. C’est évidemment très problématique pour laisser cet agent conversationnel discuter avec vos clients. Cela peut même vite devenir dangereux.
Par construction, un chatbot GPT est conçu pour aller dans le sens de l’utilisateur, quitte à inventer des réponses pour le satisfaire. On l’a vu avec effroi, et un peu d’amusement, il y a quelques mois du côté des Etats-Unis avec Chevrolet, lorsqu’un utilisateur a réussi à négocier une voiture pour 1€.
La gestion de la connaissance métier est des informations disponibles pour construire les réponses des chatbots IA, c’est le cœur d’expertise de Smart Tribune au contact de ses clients grands comptes : Carrefour, Air Liquide, Fnac Darty, Leroy Merlin, Macif ou encore OUIGO.
En utilisant des agents IA spécialisés dans la recherche d’information, nous nous assurons que les réponses de nos chatbots sont construites à partir des connaissances véridiques, vérifiées et validées par les experts des métiers. Les sujets à risque ou les cas du type Chevrolet ne sont tout simplement pas possibles avec cette méthodologie et cette couche de sécurité supplémentaire !
Si les conditions d’utilisation ont changé, notamment pour les utilisateurs payants de ChatGPT, un doute plane toujours sur l’utilisation des données personnelles par ces acteurs géants de la Silicon Valley. Comme pour Facebook en son temps, le conseil est toujours valable : ne donnez pas d’information sensible à ChatGPT pour éviter tout désagrément.
Dans un contexte de suivi client il se peut que des informations personnelles transitent dans une conversation. Pour éviter que ces données soient envoyées à nos partenaires qui mettent à disposition des grands modèles de langage, nous avons conçu un agent spécialisé pour masquer les données sensibles. Nom, prénom, adresse email, coordonnées bancaires, tous ces éléments sont masqués lorsque nous effectuons une requête vers un LLM.
En savoir plus :
ChatGPT donne l’impression de pouvoir tenir une conversation complexe, en plusieurs tours de dialogue, avec un utilisateur humain. Cela peut être vrai sur des sujets du quotidien, vous en avez sans doute fait l’expérience. Mais il est beaucoup plus difficile de tenir une conversation structurée dans la durée pour répondre à des objectifs business.
Certains spécialistes qui ne jurent que par l’IA nous disent qu’il n’y a déjà plus besoin de spécialistes de la conception de conversation car ChatGPT est autonome. Laissez nous en douter, et nos experts le confirment chaque jour. D’ailleurs ils vous donnent leurs clés d’un chatbot réussi dans ce livre blanc pour lancer un chatbot IA sécurisé et performant.
Chez Smart Tribune nous sommes convaincus que les experts sont bien les humains, pas les machines. La conception des conversations est donc un élément indispensable de tout début de projet bot, peu importe le niveau d’IA nécessaire pour rendre le service attendu.
Des parcours créés à la main avec un script et des arbres de décision sont encore, dans de nombreux cas, plus efficaces qu’un parcours 100% généré par IA. L’intégration avec des API d’outils tiers, pour le suivi de commande par exemple, nécessite également de bien penser les parcours de conversation pour faciliter l’accès rapide à la bonne information. L’IA doit être bien dosée et bien placée dans ces parcours conçus par des professionnels du design d’expérience conversationnelle.
Par défaut, dans son utilisation classique, ChatGPT tourne en boucle sur lui-même et n’est pas en mesure de solliciter de scénarii avec des intervenants humains. De plus, comme nous l’avons déjà évoqué, il est conçu pour satisfaire à tout prix l’utilisateur. Il n’est donc pas possible d’imaginer l’utiliser de cette façon pour des cas complexes qui impliquent la reprise en main par des agents humains.
Pour gérer des cas complexes en avant-vente comme en après-vente, l’utilisateur peut avoir besoin que la conversation soit redirigée vers un agent en chair et en os pour une prise en charge de qualité. Il est indispensable de mettre en place des processus d'escalade clairs avec des actions prédéfinies, c’est un atout de plus pour les chatbots IA imaginés par des experts du métier.
Ces règles d’escalade peuvent être enseignées au chatbot IA, qui déclenche une action en fonction d’une intention utilisateur, mais elles peuvent également être définies par des règles très claires, pourquoi pas communes aux FAQ ou formulaires de contact de votre écosystème web et mobile.
La réussite d’un chatbot IA passe par cette complémentarité entre les parcours automatisés et l’intervention humaine !
ChatGPT tout seul n’est pas en mesure de gérer votre support client, à cause de ses limites sur la qualité de l’information que sur la tonalité utilisée. Utilisez plutôt des solutions de chatbot IA qui intègre des modèles de langage qui ont une maîtrise complète de cette chaîne de génération de conversation.
Les données personnelles fournies par les utilisateurs au cours d’une conversation (nom, prénom, adresse email, numéro de téléphone…) sont masquées avant d’utiliser un LLM pour générer une réponse. Ce procédé est indispensable pour éviter les fuites de données et bâtir la confiance avec l'utilisateur.
L’utilisation d’une base de connaissances comme source de vérité est indispensable pour limiter les hallucinations. Le chatbot IA va alors chercher les informations nécessaires à la construction de la réponse dans cette source de vérité construite et validée par des experts.
L'ingénierie du master prompt Smart Tribune permet également de juguler les hallucinations et les réponses dangereuses, en cadrant très précisément le périmètre de réponse et le style attendu.
Bien sûr, les chatbots IA intègrent des solutions d’escalade vers des agents humains. A l’inverse d’un ChatGPT, les chatbots IA Smart Tribune n’essayent pas d’agir à tout prix en autonomie, ils répondent à des cas d’usages définis pour accompagner les utilisateurs dans des tâches précises. Quand le niveau d’information demandé dépasse les compétences du chatbot, ou que l’utilisateur demande de parler à un humain, cette escalade est réalisée pour que le parcours aboutisse à la meilleure résolution possible.
Le comparatif était bien sûr un peu biaisé dès les premières lignes de cet article : il n’est pas possible aujourd’hui d’imaginer utiliser ChatGPT tel quel pour une application business sensible. Par contre, les grands modèles de langage doivent faire partie intégrante de la chaîne de valeur des produits chatbots dédiés à la conversation avec vos prospects, clients, patients ou citoyens.
Pour y arriver, nous défendons une approche ouverte et évolutive qui se concentre sur l’ingénierie et la méthode plutôt que sur l'utilisation d’un modèle particulier. GPT-4o, Claude, Llama, Mistral, chaque modèle peut apporter sa pierre à cet édifice. Chez Smart Tribune nous testons sans cesse tous ces modèles et leurs dernières évolutions pour exploiter le meilleur rapport coût/performance à chaque étape de notre Séquence IA.
Si vous voulez en savoir plus sur le fonctionnement de cette Séquence et sur notre méthodologie de création de chatbots IA de confiance, découvrez vite notre dernier livre blanc !