Rendez l’argent ! C’est ainsi qu’un célèbre cabinet de conseil s’est vu « réprimander » par le gouvernement australien, lequel lui avait confié une étude afin d’obtenir une réponse à une question et être en mesure de prendre une décision au travers des conclusions de celle-ci.
L’usage d’une agent conversationnel (un chatbot quoi) par le prestataire pour rédiger ce qui est devenu l’objet de la contrariété australienne, s’est retourné contre lui…
Le principe est classique et depuis des décennies, les cabinets et autres agences de conseil, en font un business. Que l’on soit effaré de la facture qu’une telle commande engendre parfois pour le client est une autre histoire – la question d’ailleurs se pose car si les arguments « outil de sondage », « recherche », « valeur ajoutée », « nombre de pages », etc. peuvent s’inviter au débat, certains dossiers PowerPoint, on l’a vu, ont eu tendance à dépasser les limites, le coût total se justifiant uniquement par la réputation du cabinet. Bref.
À propos de réputation, nous avons assisté cette semaine (du 7 octobre 2025) à une exemple repris par les médias, relatant une aventure datant du mois de juillet, au sujet d’une démarche que l’on peut qualifier de « dégénérative » pour l’image d’un cabinet de conseil ayant pignon sur rue.
L’histoire résumée ici : https://www.usine-digitale.fr/article/fiasco-pour-deloitte-apres-avoir-genere-un-rapport-par-ia-pour-le-gouvernement-australien.N2238940
L’intelligence artificielle générative est un pot de confiture
Ce prestataire s’est donc fait prendre les doigts dans le pot de confiture comme un bleu.
Cela pose au moins deux questions :
1. La tentation d’utiliser l’IA
Elle est évidemment de plus en plus grande. Et même chez les professionnels. C’est là que le risque apparaît. Ce qui vient d’arriver au cabinet Delloite, pour ne pas le nommer, est caractéristique de la tentation qui fait qu’un professionnel va dépasser la mesure de la confiance que l’on doit accorder à une technologie surtout récente, en l’occurence une « intelligence » artificielle générative (ou IAg). Le processus a consisté à déléguer en partie un travail apparemment sans aucune autre forme de relecture ni de vérification. Tout en facturant au prix habituel — sans scrupule donc (cf. le point 2).
2. Avoir une morale
Utiliser l’IA peut s’avérer rapide et donc rentable, a priori. Si l’on a une activité professionnelle (un cabinet de conseil par exemple…) à faire tourner, la démarche va tendre vers ce que dicte la trésorerie. Quitte à enfler le coût de certaines missions au regard du temps passé et des outils déployés pour rendre une conclusion.
La tentation est si grande que le pot de confiture est ouvert sans ménagement. La confiture est étalée sur plusieurs pages et à plusieurs niveaux… Mais cette fois, le produit était mauvais, et a dégouliné, les erreurs ont débordé au point qu’elles ont été repérées, et la confiture a fini par tacher (entacher) la réputation de ce cabinet.
Qu’un professionnel décide d’utiliser un outil à sa place, pourquoi pas. Mais alors qu’il le précise à son client – en baissant au passage sa facturation – et, surtout, qu’il repasse derrière pour vérifier ! Il ne faut pas se fier totalement à un robot. Une vérification humaine s’impose. Les erreurs sont fréquentes. Ici, le risque n’a pas été mesuré, le client a demandé un remboursement, ce qui est justifié. Mais la démarche pose vraiment question.
C’est là que le scrupule ou la morale, comme vous voulez, entre en jeu :
Avoir une conscience professionnelle VS gagner des marchés les doigts dans le nez.
Humain VS Machine.
Vérité VS Hallucination.
Cela relève de chacun.
Tous les articles en français sur cette mésaventure : https://urls.fr/70Klbi
Tous les articles en anglais sur cette mésaventure : https://urls.fr/4Z5BDo

