- A Kind of Magic
- Posts
- Crée un assistant qui répond à tes clients
Crée un assistant qui répond à tes clients
À la une : OpenAI annonce l'arrivée imminente d'o3-mini

Au menu d’aujourd’hui :
📌 Fiche pratique pour te créer une veille personnalisée avec de l’IA.
✍️ Crée un assistant qui répond à tes clients.
🗞️ À la une : OpenAI annonce l'arrivée imminente d'o3-mini.
💎 7 autres news et découvertes.

📌 Fiche pratique pour te créer une veille personnalisée avec de l’IA
L’IA peut transformer ta manière de faire ta veille 🗞️
En quelques clics tu peux te créer une équipe d’assistants de recherche professionnelle qui s’occupe de :
Parcourir et analyser les nouveaux contenus de tes sources 24h sur 24.
Extraire et catégoriser les infos importantes pour toi : par type, par thème etc.
Te faire un digest quotidien ultra personnalisé sur les sujets qui t’intéressent.
Je t’explique tout ça étape par étape dans ma fiche pratique. Tu y trouveras 👇
Comment extraire automatiquement le contenu de n’importe quelle newsletter, d’une liste de profils Linkedin, de vidéos Youtube ou de flux RSS.
Une template de base de données centralisée sur Airtable à copier-coller.
Un guide pour paramétrer un assistant qui extrait et catégorise les informations importantes pour toi.
Un guide pour configurer un e-mail récapitulatif journalier en choisissant le fond et la forme.
C’est un cas d’usage simple pour commencer à tirer profit de l’IA dans ton quotidien.
Tu peux t'en servir pour ta veille perso mais aussi pour surveiller tes concurrents, nourrir ta stratégie de contenu, alimenter un CRM etc.

Pour la recevoir : un petit commentaire sur ce post Linkedin pour le soutien et je te l’envoie illico. Merci <3
🎓 Le tutoriel du jour
À la fin du tutoriel tu sauras créer un assistant qui t’aide à formuler des réponses parfaites aux questions de tes clients en allant chercher dans une documentation interne.

Tu vas pouvoir laisser ton stock de pansements tranquille.
Objectif du tutoriel
On se met à la place du community manager de la chaîne YouTube de LegalPlace.
On aimerait un moyen de répondre rapidement et sans erreurs aux questions posées dans les commentaires sous les vidéos.

ChatGPT o1-mini estime entre 22 et 32 minutes le temps nécessaire pour rédiger cette réponse.
Cas d’usage
⚡️Productivité : Faciliter l’onboarding des nouveaux employés en répondant aux questions fréquentes.
⚒️ Produit : Partager les roadmaps ou priorités produit pour informer les équipes.
📞 Sales : Accéder aux playbooks de vente ou aux réponses aux objections courantes.
📊 Data : Partager les KPI clés ou rapports prédéfinis pour des requêtes fréquentes.
🎨 Design : Répondre aux questions sur les polices, palettes de couleurs ou templates à utiliser.
🤗 RH : Fournir des réponses sur les politiques RH, comme le télétravail ou les horaires flexibles.
Outil utilisé
Étape 1 : Connecte ta documentation à Dust
Rends-toi sur Dust et crée un compte.
Rends-toi dans “Knowledge” et connecte la source de ta documentation (Notion, Google drive, etc.).

Pour l’exemple, on imagine que c’est dans Google drive.

Exemple de documentation
Ajoute l’extension Chrome de Dust.

Étape 2 : Crée un assistant qui formule des réponses aux clients à partir de la documentation
Crée un nouvel assistant dont l’objectif sera de t’aider à répondre au mieux aux questions des clients à partir d’une documentation interne.
Commence par lui dire ce que tu attends de lui. On veut qu’il se base exclusivement sur la documentation alors on désactive l’option “Recherche internet”

Je fais un prompt très basique pour l’exemple mais tu peux évidemment faire plus sophistiqué.
Connecte l’assistant à la documentation interne qu’on a ajouté à l’étape 1 en cliquant sur ‘‘Tools & Data sources”.

Enregistre et ajoute l’assistant dans tes favoris (ça te permettra de le retrouver plus facilement depuis l’extension chrome)
On va le tester dans la section commentaires de l’une des vidéos de la chaîne avec une question sur les titres restaurants pour le dirigeant de SASU.

Tu peux faire clic droit > Dust > “Add selection to conversation” pour l’ajouter dans le panneau latéral de l’extension chrome de Dust.
Et voilà la réponse :

Efficace.
💡 À noter : On pourrait ajuster le prompt de notre assistant pour modifier ses réponses (sur le fond et la forme).
Maintenant, imaginons qu’il ne trouve pas la réponse dans la base de connaissances et qu’on réponde après avoir fait des recherches.
On aimerait un assistant qui nous fasse gagner du temps pour mettre à jour la documentation avec notre réponse.

Ça serait dommage de ne pas faire profiter les collègues de notre réponse longuement formulée.
Étape 3 : Crée un assistant pour mettre à jour la documentation
On va maintenant créer un assistant qui nous aide à mettre à jour la documentation à partir de nos réponses.
Crée un assistant en sélectionnant FAQBuilder parmi les templates proposées.

C’est prêt !
💡 À noter : Tu peux ajuster le prompt pour qu’il corresponde au format de ta documentation interne
Ouvre l’extension Chrome de Dust, rends-toi sur Youtube, sélectionne le texte et la réponse que tu voudrais ajouter à ta documentation et fais clic droit > Dust > Add selection to conversation.
Lance le @FAQBuilder et tu obtiens un texte au format question / réponse

Parfaitement résumé

Idem
Vérifie le contenu, modifie-le si besoin et tu n’as plus qu’à le copier-coller dans ton document Google doc et tous tes collègues pourront y avoir accès via l’assistant de réponse.
FAQ
Combien ça coûte ? —> Jusqu’à 100 utilisateurs, le tarif est de 29€ par utilisateur par mois.
Si j’ai des questions ? —> Sur Dust, tu peux utiliser l’assistant @help qui est connecté à la documentation de Dust.

🗞️ À la une

La performance du modèle o3 sur le benchmark ARC-AGI.
Sam Altman, CEO d'OpenAI, vient d'annoncer la finalisation du modèle de raisonnement "o3-mini", dont le lancement est prévu dans les prochaines semaines. Cette nouvelle version sera déployée simultanément via l'API et ChatGPT, marquant un changement dans la stratégie de déploiement habituelle de l'entreprise.
Bien que plus rapide que ses prédécesseurs, o3-mini serait moins performant que o1 pro sur la plupart des tâches, selon Altman. OpenAI travaille également sur les modèles o3 et o3-pro, qui seront disponibles pour les utilisateurs du tier Pro à 200$/mois.
💎 Autres news & découvertes
DeepSeek lance R1, un modèle de raisonnement open-source rivalisant avec o1 d'OpenAI pour seulement 5-10% de son coût API.
Sam Altman prévoit de présenter aux officiels américains le 30 janvier des systèmes d'IA de "niveau PhD" capables de résoudre des problèmes complexes.
Le marché de la recherche en ligne est bouleversé par l'IA générative, avec des acteurs comme Perplexity et ChatGPT qui menacent la domination de Google.
Une étude révèle que l'utilisation intensive de l'IA diminue nos capacités de pensée critique, particulièrement chez les jeunes utilisateurs.
Arthur Mensch, CEO de Mistral, prédit que 2025 marquera le passage des modèles de langage aux systèmes IA intégrés aux données métier.
OpenAI s'apprête à lancer son agent IA "Operator", capable d'automatiser des tâches complexes sur le web comme la réservation de voyages.
Les replays de l’édition parisienne des GenAI Days sont dispos ici.
🎤 À toi le micro
Voilà, c’est la fin de cette 12ème édition de A Kind of Magic, j’espère qu’elle t’a été utile.
N’hésite pas à la partager si c’était le cas.
PS : Si tu veux un système de veille personnalisée qui réduit tes chances de tomber dans des vortex d’articles et vidéos recommandés, n’oublie pas de récupérer ta fiche pratique 👇

Pour la recevoir : un petit commentaire sur ce post Linkedin pour le soutien et je te l’envoie illico. Merci <3
Dispo pour échanger en réponse à cet e-mail ou sur Linkedin.
À jeudi !

Jean-Charles