Méthodologie 2026

Comment prioriser un cas d'usage IA en PME sans se tromper d'ordre

Le premier pilote raté coûte souvent plus qu'un mois de budget. Il ralentit l'adoption, fatigue l'équipe et brouille le jugement sur l'IA. La meilleure défense contre ce risque, c'est une méthode de priorisation simple, assumée et stable. Cette page donne justement une grille de lecture utilisable en comité de direction comme en cadrage opérationnel.

Méthodologie de priorisation de cas d'usage IA en PME

La formule Kirohq en 6 critères

CritèrePoidsCe qu'on regarde
Fréquence20Combien de fois le flux revient chaque semaine ou chaque mois.
Douleur métier20À quel point le sujet use l'équipe, provoque des oublis ou dégrade le suivi.
Visibilité du gain15Peut-on mesurer rapidement un délai, un volume, un temps gagné ou un taux d'oubli.
Qualité des données15Les entrées sont-elles déjà exploitables, stables et suffisamment structurées.
Effort d'intégration15Combien d'outils, d'étapes et d'exceptions faut-il relier pour faire tourner le flux.
Sensibilité et conformité15Quel est le niveau de risque sur les données, les accès, les droits et la traçabilité.

Comment lire le score

80 à 100

Très bon premier pilote. Le sujet est fréquent, visible, relativement bien borné et le gain peut être montré vite.

65 à 79

Bon sujet, mais souvent meilleur en deuxième vague. Il demande un peu plus de préparation sur les données, les règles ou les exceptions.

Moins de 65

À mettre en parking ou à retravailler. Le sujet n'est pas forcément mauvais, mais il est trop fragile pour lancer la confiance.

Les 5 cas à éliminer au premier tour

  • Un sujet sans propriétaire métier clair.
  • Un flux rare mais politiquement très visible.
  • Un cas où les données d'entrée sont encore trop instables ou contradictoires.
  • Un usage très sensible juridiquement sans cadre d'accès, de traçabilité et de revue.
  • Un projet qui dépend d'emblée de plusieurs logiciels critiques et de nombreuses équipes.

Le meilleur premier pilote n'est pas celui qui “impressionne”. C'est celui qui crée une preuve de valeur sans fragiliser l'organisation.

Comment scorer un cas d'usage en 30 minutes

La méthode Kirohq tient sur un atelier court, mais elle fonctionne seulement si l'on part d'un cas réel. Pas d'une idée vague du type “mettre de l'IA dans le service client”, mais d'un flux concret, observé, avec un début, une fin et une équipe qui le subit déjà au quotidien. C'est ce réalisme qui évite les notes généreuses données à des sujets trop flous.

En pratique, nous recommandons de noter chaque critère sur 5, puis de convertir cette note dans le poids prévu. Un 5 sur un critère à 20 points vaut 20. Un 3 vaut 12. Cette petite règle a un avantage: elle force l'équipe à expliciter pourquoi un sujet est vraiment fréquent, vraiment douloureux ou vraiment sensible, au lieu de mélanger tout dans une impression générale.

  • Choisir un cas d'usage observé sur les deux à quatre dernières semaines, avec quelques exemples réels sous les yeux.
  • Faire noter la grille par un responsable métier et un utilisateur du flux, pas uniquement par la direction ou la technique.
  • Lister les exceptions avant de trancher: ce sont elles qui font souvent chuter la note de faisabilité.
  • Comparer trois idées au maximum à la fois, sinon la discussion dérive vers une priorisation trop abstraite.
  • Éliminer sans état d'âme les sujets où la qualité des données ou la sensibilité réglementaire restent trop fragiles.

L'objectif n'est pas de sortir “le meilleur projet théorique”. L'objectif est d'identifier le projet qui a le plus de chances de produire un apprentissage utile et crédible en premier.

Exemple simple de scoring sur 3 cas d'usage

Cas d'usageScore indicatifLecture
Relance de pièces manquantes86 / 100Flux fréquent, gain visible, données déjà disponibles et contrôle humain simple sur les exceptions.
Compte-rendu de réunion81 / 100Très bon premier pilote si l'équipe accepte une validation systématique avant envoi ou archivage.
Agent transversal sur plusieurs logiciels critiques49 / 100Ambitieux, mais trop chargé en intégration, en dépendances et en risques pour ouvrir le bal dans une PME.

Ces scores ne sont pas des vérités universelles. Ils montrent simplement comment la méthode privilégie les sujets à impact rapide et à gouvernance simple. Un projet plus complexe peut devenir prioritaire plus tard, une fois qu'une première brique a prouvé sa valeur et clarifié les règles de fonctionnement.

Principes et sources

Cette méthodologie n'est pas sortie d'un chapeau. Elle reprend des constantes documentées par France Num et la CNIL: commencer par un processus répétitif, exploiter des données déjà disponibles, limiter la complexité d'intégration, documenter les responsabilités et garder un contrôle humain sur les zones sensibles. Elle formalise ensuite ces principes sous forme de score simple pour accélérer la décision.

Au 23 mars 2026, les repères publics les plus récents que nous retenons sont le Baromètre France Num 2025, mis à jour le 9 mars 2026 et fondé sur 11 021 répondants, le guide CNIL sur l'IA, et le panorama ANSSI 2025 publié le 11 mars 2026. Ce trio explique directement la logique des poids: la fréquence et la douleur comptent beaucoup parce que 55 % des TPE-PME disent manquer de temps pour se former, tandis que la sensibilité reste un critère fort parce que la CNIL a reçu 5 629 notifications de violations de données en 2024 et que l'ANSSI décrit toujours un niveau de menace élevé en 2025.

Vous voulez appliquer cette grille à vos flux réels ?

On peut scorer ensemble vos cas d'usage, écarter les faux bons départs et faire ressortir les pilotes les plus crédibles pour votre équipe.