De plus en plus de clients me soumettent des courriers pré-rédigés par ChatGPT (ou un autre système expert) qu’ils me demandent de relire.
Ce qui est déjà rassurant car ils n’ont pas encore totalement confiance dans la machine.
Et donc qu’ils s’en remettent toujours un peu à l’intelligence humaine.
Au préalable, je ne serai pas nécessairement ici le plus objectif dans cet article, face à une technologie qui va me piquer mon travail.
C’est-à-dire que pourquoi payer ce con de VAGNEUX quand la machine peut me le faire, et bien d’autres choses, et pourquoi pas aussi le sexe, pour 20 euros par mois ?
Mais en 2025, la machine n’est pas encore prête pour remplacer l’humain pour la rédaction de courriers ou de recours.
Plus tard, peut-être ; j’en ai peur. Dans 5. Plutôt 10 ans. Enfin, cela dépendra de combien vous payez.
J’ai déjà des clients élus qui font rédiger leurs questions par ChatGPT.
Puis qui m’appellent, et qui me disent, mais c’est bizarre, parce que je suis surpris que la loi prévoit que tel type de contrat serait valable 33,47 ans.
Est-ce que tu peux vérifier steup ?
Si le courrier produit est bien structuré, et qu’il peut faire illusion chez un lambda, un juriste va tout de suite voir que ce n’est pas un courrier professionnel.
À ce jour, je n’ai pas repéré de grosses incohérences, du type je cite l’article 4000 du code pénal de la justice des impôts administratifs ou la jurisprudence du 32 juillet 616 avant le Christ qui dit que les voitures volantes…
Mais en fait, le courrier ne dit pas ce que la personne, en face, attend.
En effet, à ce jour, le système expert ne parle pas à un autre système expert.
Et ne peut donc pas prévoir comment son interlocuteur va réagir.
Ce qui est un ressenti qui s’affine avec l’expérience.
Et qui dépend aussi des cultures locales.

Laisser un commentaire