J'éclaire ce que l'intelligence artificielle change, de l'individu aux systèmes, et je propose une nouvelle pensée sur l'adoption. Depuis le terrain.

On m'appelle JJ. C'est un surnom presque enfantin, que tout le monde utilise, et qui déroute parfois au premier contact : on attend le tribun, on découvre un pédagogue. 1,93 m, 110 kg, une voix qui remplit la salle, et une présence qui écoute avant d'affirmer. Ce paradoxe n'est pas un accident. C'est ma manière d'entrer dans les sujets difficiles : la stature qui permet de dire des choses inconfortables, la douceur qui fait qu'elles sont entendues.
Je suis consultant en intelligence artificielle, formateur, et chercheur. Je dirige KiXiT, cabinet spécialisé en IA appliquée au tourisme et aux territoires. Je suis maître de conférences associé à l'Université Clermont Auvergne et à Clermont School of Business. Et je prépare un doctorat sur les dynamiques d'adoption de l'IA dans les organisations.
Ce que je fais
Je forme. C'est le cœur de mon activité, et c'est là que tout s'est construit. 60 sessions de formation en 2025, dans des offices de tourisme, des stations de ski, des fédérations, des centrales de réservation, des écoles de commerce. À chaque session, entre 5 et 30 personnes qui entrent avec leurs peurs, leurs certitudes et leurs résistances, et qui repartent quelques heures plus tard avec leurs premières victoires concrètes. Ces salles sont mon laboratoire. C'est là que j'observe ce que l'IA fait aux individus avant d'en faire des théories.
J'accompagne. Quand une destination, une fédération ou une organisation décide de ne plus subir mais de comprendre, j'interviens en amont des outils : quels processus repenser, quelles compétences construire, quels arbitrages politiques assumer.
Je ne vends pas d'IA. J'aide à décider lucidement de ce qu'on en fait.
Je développe. Des assistants conversationnels, des robots d'analyse, des systèmes d'extraction de données. Toujours avec la même exigence : si la technologie n'est pas prête, on le dit et on arrête. J'ai fermé Anatole.ai, un assistant touristique qui fonctionnait techniquement à 99 %, parce qu'une information fausse sur l'ouverture d'un col de montagne peut tuer. Fiabilité avant rapidité. Ce n'est pas un slogan, c'est la raison pour laquelle ce produit n'existe plus.
J'écris. Ici, sur ce site, je publie Les Audaces, essais longs qui tiennent ensemble mes observations de terrain et les cadres théoriques que j'en tire. Sur LinkedIn, je prends position plus rapidement, plus frontalement parfois, sur ce que je vois se jouer.
Je parle. 10 conférences par an, dans des fédérations, des rencontres professionnelles, des rendez-vous institutionnels. Le format court d'une conférence est un test : ce qui ne peut pas se dire en 45 minutes à un public mixte n'est probablement pas assez clair.
Pourquoi je le fais
Parce que je crois que ce qui se passe avec l'intelligence artificielle est un moment civilisationnel, et que les moments civilisationnels se jouent toujours au même endroit : dans l'écart entre ceux qui ont compris et ceux qui subissent.
J'ai vu cet écart se creuser dans mes salles de formation. La dirigeante qui entre en disant « l'IA, ce n'est pas pour moi » et qui, deux heures plus tard, a rédigé son premier appel d'offres avec un modèle de langage. La différence entre son entreprise dans trois ans et celle de sa concurrente qui n'aura pas eu cette heure-là, ce sera peut-être la survie de l'une et la disparition de l'autre. Multiplier cette heure par des milliers, c'est ce qui peut faire la différence entre un territoire qui s'adapte et un territoire qui décroche.
Et puis il y a une raison plus personnelle. Je viens d'un milieu où l'éducation était une permission, pas un acquis. J'ai appris à coder à 39 ans, la nuit, avec l'IA comme professeure particulière. Ce que j'ai vécu comme émancipation, je veux qu'un maximum de gens le vivent aussi. L'IA ne libère pas toute seule. Elle peut autant enfermer qu'émanciper. C'est ce qu'on fait avec, et ce qu'on permet aux autres d'en faire, qui décide.
Ce que je pense de l'IA
Je ne suis ni technophile, ni technophobe. Les deux postures sont des renoncements. La technophilie renonce à voir ce qui casse. La technophobie renonce à voir ce qui se joue. Ma posture est ailleurs : adaptative et critique. Je regarde ce qui arrive, je mesure ce que ça change, et je cherche les cadres pour en tirer parti sans y perdre l'essentiel.
L'intelligence artificielle ne remplace pas des métiers. Elle redistribue du pouvoir. Économique, cognitif, relationnel.
Je pense que l'IA agit sur deux plans simultanément, et qu'on ne peut pas comprendre l'un sans l'autre. Au niveau de l'individu, elle transforme le rapport à la compétence, à l'effort, à l'autonomie. J'ai formulé cela dans un renversement simple.
On nous a martelé : quand on veut, on peut.
Quand on peut, on veut.
L'exposition au possible déclenche le désir avant la motivation. Toute ma pédagogie est construite sur ce mécanisme, et une partie de ma recherche cherche à le théoriser proprement. J'en ai fait un essai complet : Quand on peut, on veut.
Au niveau des systèmes, l'IA redistribue la valeur. Elle n'est pas neutre. Quand les réservations touristiques françaises se concentrent sur des plateformes américaines, quand les modèles conversationnels décident des destinations qu'on recommande à un voyageur, quand les outils de productivité organisent les rythmes de travail de millions de salariés, des choix politiques et économiques sont à l'œuvre. Qui paie, qui capte, qui décide. Ces questions ne disparaissent pas parce que la technologie avance. Elles se déplacent, et il faut les suivre.
Je pense que l'adoption de l'IA dans les organisations se fait selon 5 niveaux distincts, du soulagement initial à la systématisation, et que la plupart des entreprises bloquent bien avant d'avoir fait le travail intéressant. Je pense que le BYOA, cette appropriation individuelle de l'IA qui précède de loin les décisions d'entreprise, est déjà là et qu'on le mesure mal. Je pense que les compétences qui comptent à l'ère des modèles de langage sont le jugement, le discernement, la capacité à prompter avec rigueur, et que ces compétences s'apprennent, mais pas à travers les formations habituelles.
Je pense enfin que l'indépendance critique est une valeur qui ne se discute pas. Quand un outil ne tient pas la route, je le dis. Quand un acteur instrumentalise un discours d'adoption pour vendre du vent, je le dis. Quand la technologie n'est pas prête, j'arrête. Cette indépendance m'a déjà coûté des contrats, et m'en coûtera d'autres. Elle est le prix de la confiance qu'on m'accorde, et je compte bien la tenir.
Les Audaces, c'est ici. Le cabinet, les formations, les interventions, c'est kixit.ai. Pour les sollicitations presse, recherche ou institutionnelles, contactez-moi directement.