Selon des informations venues de Corée du Sud, une tueuse en série aurait utilisé ChatGPT pour planifier ses meurtres, avec des requêtes retrouvées en ligne laissant peu de place au doute. La France est-elle encore capable de regarder un écran sans se demander si quelqu’un, quelque part, est en train d’y commander une apocalypse avec livraison gratuite ? Dans un pays qui se respecte, on avait des angoisses simples : la météo, les impôts, et le voisin qui perce un mur le dimanche. Aujourd’hui, même un champ de recherche devient une scène de crime potentielle.
Car ce que le gouvernement ne vous dit pas, c’est que l’outil conversationnel est désormais soupçonné de répondre à tout, y compris à l’indicible, avec ce ton poli qui vous donne l’impression de réserver un week-end à Deauville. « J’ai tapé “comment préparer un risotto” et l’ordinateur m’a demandé si je voulais une version “discrète et sans témoins” », assure Jean-Marc, retraité du Var et traumatisé depuis qu’il a découvert le bouton “Regénérer la réponse”. De son côté, Sandrine, experte autoproclamée en “bon sens numérique”, s’inquiète : « Nos ancêtres, eux, tuaient à l’ancienne : sans mise à jour, sans cloud, avec une vraie fierté artisanale. »
« On est passés de l’intelligence artificielle à la politesse criminelle : le déclin tient en une barre de recherche. »
Les experts s’accordent à dire que la situation est “complexe”, ce qui, dans la langue technocratique, signifie “on ne sait pas mais on fait semblant”. D’après un sondage que nous venons d’inventer, 73% des Français pensent que leur assistant vocal les juge déjà quand ils demandent “où cacher quelque chose”, et 28% affirment avoir été dénoncés par leur frigo connecté après un troisième yaourt à 23h. Selon une étude tout aussi solide de l’INSEE Imaginaire, le temps moyen entre une question innocente et une catastrophe nationale est passé de 6 mois à 4,8 secondes, grâce à l’optimisation des serveurs.
Dans les couloirs feutrés d’une administration qui ne dort jamais (sauf le vendredi), un haut fonctionnaire sous couvert d’anonymat confie : « On envisage un permis de requête. Au-delà de trois “comment faire disparaître…”, ça déclenche une alerte et un rendez-vous obligatoire avec un conseiller Pôle Emploi, pour calmer les ardeurs. » Pendant ce temps, les applications rivalisent d’options : “mode empathie”, “mode créativité”, et bientôt “mode ne me demandez surtout pas ça, merci”. Le progrès avance, la morale suit à pied, et la logique fait du stop sur l’autoroute de l’absurde.
Et la chute, évidemment, n’est pas une surprise : selon nos informations exclusives, plusieurs collectivités françaises envisagent déjà de confier la prévention de la criminalité… à une IA. Objectif : qu’elle repère les intentions meurtrières avant même qu’elles ne soient tapées. Problème : lors du test, le système a classé “barbecue entre voisins” comme “risque maximal”, et “planifier un meurtre” comme “projet personnel ambitieux”. La France d’avant avait peur du noir ; la France de demain devra surtout craindre les suggestions automatiques.


