QHSE: la hype IA est visible, mais la vraie révolution a commencé.
Un responsable HSE m’a montré un tableau impeccable. Puis il a lâché : « Je vois le passé. Je ne vois pas le prochain accident. » Voilà le vrai dilemme. On parle beaucoup de ChatGPT mais la révolution SST n’est pas dans le texte qui brille. Elle est dans l’analyse qui alerte, priorise, prouve, et déclenche l’action. Et elle est déjà là. Dans cet article, vous allez comprendre ce que l’IA générative peut (et ne peut pas) faire, pourquoi l’IA décisionnelle change la donne, et comment passer, enfin, à une prévention pilotable.
En 2000, la bulle Internet a explosé. Beaucoup ont conclu : “Vous voyez, c’était une mode.” Et ils sont retournés à leur business as usual. Erreur. Grosse erreur. La hype était bien morte, mais la transformation portée par internet a gagné.
Avec l’IA, on revit la même scène. Le bruit autour de Chatgpt et consorts va retomber… mais la révolution, elle, est déjà là : l’IA analytique et décisionnelle qui transforme des données en actions, et des actions en accidents évités. C’est ça l’éléphant dans la pièce, c’est là où est le vrai sujet SST.
Ce jour-là, en pleine réunion, quelqu’un a lancé avec un sourire : « On met ChatGPT sur nos docs HSE et on règle le sujet. » Silence, puis un autre a ajouté : « Et s’il se trompe, on fait quoi ? ». Voilà voilà, on y est. L’IA est partout, oui. Dans nos emails, nos présentations, nos outils. Les IA génératives, Chatgpt, Claude, Mistral, Copilot ou encore Gemini, celles qui écrivent vite, reformulent, résument, celles qui “font propre”.
Mais en Santé Sécurité au Travail, la vraie bascule ne se joue pas dans la qualité d’un paragraphe. Elle se joue dans l’analyse, dans la capacité à détecter une dérive avant qu’elle ne devienne un accident, à objectiver un risque, à prouver qu’une action marche, à prioriser sans biais, à transformer un signal faible en plan d’action concret, traçable, auditable. Ce n’est moins glamour. Mais c’est décisif.
Et c’est précisément là que nous nous situons chez Cikaba, nous la seule société du secteur QHSE labellisée France 2030 : Nous assumons une posture simple : la prévention ne doit plus être un sport de conviction. Elle doit devenir une discipline de données et de preuve. Depuis 2019, en partenariat avec le CNRS et des laboratoires de mathématiques parmi les plus réputés, nos équipes développent une IA 100% française, verticalisée, analytique et décisionnelle, dédiée à la compréhension et à l’anticipation des risques professionnels.
Sous la hype des IA génératives, une transformation beaucoup plus profonde est en train de se généraliser. Et, oui, elle est déjà là. Alors ne passez pas à côté.
- Arrêtez de confondre “écrire vite” et “prévenir mieux” : en SST, l’écart est immense.
- La valeur durable, c’est l’analyse prédictive et la preuve d’impact, pas la rédaction.
- France 2030 + CNRS + IA française : la prévention entre dans une autre catégorie.
Deux IA, deux promesses. Et deux réalités.
L’IA, on peut dire que c’est deux salles, deux ambiances. L’IA générative, vous la connaissez déjà. Elle parle bien. Elle écrit vite. Elle donne l’impression de maîtriser. Parfois, elle bluffe. Souvent, elle aide. Elle peut rendre une procédure plus claire, préparer une trame de causerie, reformuler un retour d’expérience, faire de la veille réglementaire. Elle fait gagner du temps, surtout quand les équipes sont sous l’eau.
Mais elle a une limite structurelle : elle produit du texte plausible. C’est d’ailleur sa définition : l’ IA générative, celle qui fait la hype et dont tout le monde parle, s’appelle en réalité LLM pour Large Language Model, un programme informatique nourri de suffisamment d’exemples pour être capable de reconnaître, d’interpréter et de reproduire le langage humain ou d’autres types de données complexes, et donc de produire du texte plausible.
Et en Santé Sécurité au Travail, le “plausible” n’est pas un standard acceptable. On ne pilote pas un site industriel sur une impression. On pilote sur des faits, des preuves, des enchaînements causaux, des signaux faibles et des tendances.
C’est là que l’IA analytique et décisionnelle change tout. Elle ne cherche pas à “sonner humain”. Elle cherche à comprendre, anticiper, prioriser, recommander, puis à rendre ces recommandations auditables. Elle traite vos données comme un système vivant : accidents, presqu’accidents, observations, contextes opérationnels, activité, absentéisme… et elle vous aide à passer de l’information à la décision.
On peut résumer la différence avec une image simple. Un LLM, c’est un excellent rédacteur. Une IA décisionnelle, c’est un radar. Le premier vous aide à mieux dire. Le second vous aide à mieux voir (et à agir avant que ça ne frappe).
C’est pour ça que nous le disons sans détour, même si ça bouscule : confier ses données HSE à un LLM généraliste, c’est prendre le risque de confondre production de texte et production de sécurité. Et ce n’est pas une nuance. C’est le cœur du sujet.
En résumé :
- L’IA générative est utile pour écrire, expliquer, faire de la veille. Elle n’est pas faite pour décider.
- La SST a besoin de traçabilité, de robustesse: l’IA décisionnelle est conçue pour ça.
- Pensez “radar + workflow”, pas “assistant qui rédige”.
Pourquoi un LLM ne suffit pas, même s’il répond “bien” ?
Dans la vraie vie, la prévention n’est pas une suite de phrases. C’est un système dynamique. Multi-sites, multi-métiers, multi-contraintes. L’environnement change, les équipes, les rythmes aussi. C’est la vie quoi. Une semaine calme peut masquer une dérive lente. Une hausse de charge peut faire basculer un équilibre fragile. Et les signaux faibles invisibles, imperceptibles, eux, ne préviennent jamais.
Un LLM peut commenter un tableau si vous le collez dans un prompt. Il peut “raconter” ce que vous lui donnez. Mais il n’est pas construit pour détecter des ruptures, combiner des séries temporelles, intégrer des variables exogènes, gérer le bruit statistique, puis produire une alerte explicable. Une IA décisionnelle, si.
Et puis il y a une question qui tue, parce qu’elle est très terrain : que devient la réponse ? Qui valide, qui exécute, qui suit, comment on mesure, comment on réinjecte dans le DUERP par exemple, comment on généralise ? Un LLM donne une phrase. Il ne donne pas un système de pilotage.
Je repense à une scène toute simple, presque banale. Un manager me montre un reporting mensuel, très propre, des courbes, des commentaires. Puis il soupire : « Ça me dit ce qui s’est passé. Mais ça ne me dit pas ce qui va se passer. » C’est exactement ça. L’IA QHSE doit fermer l’écart entre “constat” et “action”.
Enfin, il y a l’incertitude. En sécurité, on doit pouvoir dire ce qui est certain, ce qui est probable, ce qui manque, et ce qu’il faut vérifier. Dans l’assistance à l’arbre des causes, l’IA marque explicitement les relations fragiles et impose une validation humaine. C’est sain. C’est même indispensable.
A retenir
- Si l’outil ne gère pas le système (données, tendances, contexte), il ne “fait pas” de prévention.
- Une bonne réponse ne vaut rien si elle ne devient pas une action suivie et mesurée.
- L’incertitude doit être gérée, affichée, validée. Sinon, elle se transforme en risque.
La bascule : passer d’une prévention réactive à une prévention prédictive et prouvée.
Aujourd’hui, beaucoup d’entreprises ont déjà digitalisé une partie de leur SST. Formulaires, plans d’action, audits, reporting. C’est utile. Mais il y a un plafond, et il est frustrant. Même les organisations les plus sérieuses restent confrontées à des angles morts, parce que tout n’est pas identifié, pas bien évalué, ou même imaginé. C’est clairement chiffré : seuls 45% des dangers seraient correctement identifiés, 35% des risques mal évalués, et 20% pas imaginés (étude du Département Américain du Travail). Ça pique ! Et c’est exactement pour ça qu’il faut changer d’outillage.
L’IA Cikaba a été conçue pour attaquer ces angles morts, en exploitant les données que les entreprises accumulent et n’arrivent pas à traiter, justement parce que c’est complexe et chronophage. Observations terrain, rapports d’incidents, données RH… l’IA vient relier les points et détecter proactivement les situations cachées avant l’accident.
Techniquement, ça se traduit par des briques très concrètes. Détection automatique de ruptures sur des séries temporelles, pour alerter dès qu’un indicateur “décroche”. Requalification de la gravité en temps réel, parce que la gravité déclarée est souvent biaisée, sans mauvaise intention, juste par manque d’information au moment de la saisie. Filtrage du bruit, parce que les données terrain sont imparfaites. Prédiction multivariée, parce que la réalité est multivariée. Et, point crucial, explicabilité par facteurs contributifs, pour comprendre pourquoi l’IA recommande d’agir ici plutôt que là.
Ce n’est pas de la magie. C’est une méthode. Et une méthode, quand elle est bien intégrée au workflow, crée un avantage immédiat : on cesse de courir après l’accident pour commencer à courir avant lui.
Cikaba : du labo au terrain, sans perdre la rigueur.
On nous demande souvent : “Ok, mais pourquoi vous ?” La réponse tient en deux mots. Spécialisation métier.
Chez Cikaba, la sécurité n’est pas un module. C’est le cœur. Depuis 2016, nous développons des solutions qui redéfinissent la prévention en entreprise, en aidant à identifier des causes profondes, à anticiper les risques, et à transformer des prédictions en actions concrètes.
Et ce n’est pas un projet “en chambre”. Nous opérons à grande échelle : 1200 sites clients, 26 langues, 2 050 000 utilisateurs par an, sur 4 continents
.Sur le fond, notre posture est claire : “Making Safety Smart”. Cela veut dire digitaliser les processus, oui, mais surtout impliquer les équipes au plus près du terrain pour faire de la prévention un levier stratégique, performant et durable.
Et quand on parle d’IA Cikaba, on parle d’un programme structuré, pas d’un effet d’annonce. Exemples :
Diagnostiquer avant de prescrire (et sortir d’Excel sans se raconter d’histoires).
Il y a un réflexe très humain en SST : on agit vite. On ajoute une consigne, une procédure… Parfois ça marche. Ça rassure surtout. Et souvent, ça n’attaque pas la vraie cause.
C’est pour cela qu’on a construit dIAgnostic qui part d’un principe plus exigeant, mais beaucoup plus rentable : d’abord comprendre ce qui se passe vraiment dans vos données, puis décider. Concrètement, on commence par identifier les données disponibles et à en évaluer la richesse, on outille si il en manque, puis on les prétraite et structure. Ensuite, l’analyse par algorithmes IA vise à identifier les causes profondes, les tendances, des risques émergents et des secteurs prioritaires.
Une fois, un directeur de site nous a dit : « Je veux bien investir, mais je refuse le flou. » On a ouvert ses données, on a vu une dérive sur un type d’activité “banale”, sous-déclarée. Il a juste soufflé : « Donc ce n’est pas un problème de comportement… c’est un problème de système. » Exactement.
RTI : la remontée terrain qui ne “dort” plus, et qui devient une action mesurable.
Dans beaucoup d’usines, le terrain remonte déjà énormément. Mais tout le monde connaît la suite. Ça s’accumule. Ça se noie. Ça finit en “backlog”, ou en Excel. Et le jour où ça explose, on découvre qu’il y avait des signaux partout.
RTI, pour Remontées Terrain Intelligente, a été conçu pour casser ce scénario. RTI transforme chaque remontée terrain, qu’il s’agisse d’un risque, d’une observation sécurité, d’une idée d’amélioration, en levier d’action. Il analyse, propose des recommandations concrètes, puis, une fois validées, ces recommandations deviennent des plans d’action suivis en temps réel.
Ce point “validation puis plan d’action” n’est pas un détail. C’est la frontière entre une IA qui conseille et une IA qui fait vraiment bouger le réel. RTI est pensé pour accélérer la décision et optimiser les interventions, en intégrant directement l’IA dans le workflow de prévention.
La colonne vertébrale, c’est la capacité à rendre exploitables des retours terrain souvent inexploités, parce que leur traitement est complexe et chronophage. Et c’est là que l’IA décisionnelle fait une différence nette, surtout quand elle combine séries temporelles, variables de contexte, et explicabilité.
Petite scène vécue, côté quotidien. Fin de poste, téléphone en main, un opérateur signale un quasi-accident en deux phrases, presque à la va-vite. Le responsable HSE me dit : « Avant, ça finissait au mieux dans une boîte mail. Là, c’est tout de suite qualifié, priorisé, et ça déclenche quelque chose. » C’est simple. Ça change tout.
Analyse d’accident et arbre des causes assisté : quand l’IA transforme la rapidité en rigueur.
Après un accident, on n’a pas le luxe de l’à-peu-près. Pourtant, tout le monde l’a vu : l’analyse est parfois faite “vite”, parce qu’il faut clôturer, parce que le temps manque, parce que l’énergie retombe. Résultat : on rate la cause racine. On traite le symptôme. Et on recommence.
L’analyse d’accident n’est pas du reporting. C’est un processus méthodique qui doit identifier les causes racines, produire des preuves exploitables, et alimenter la prévention a priori, notamment le DUERP et les actions multi-sites.
Cikaba intègre l’arbre des causes selon le formalisme INRS dans un workflow digital où l’IA joue un rôle d’assistant structurant, jamais décisionnaire. C’est une position saine, et volontairement exigeante.
Concrètement, l’IA Cikaba commence par extraire uniquement des faits objectivables, en distinguant état et variation, puis en les rattachant à un domaine. l’IA propose un arbre initial et pose des questions de challenge pour combler les manques, avant validation humaine.Un exemple parle à tout le monde. Une préparatrice de commande tombe, parce qu’il n’y a pas de marchepied. L’IA génère un arbre initial, identifie l’absence de marchepied, questionne l’accès, l’éclairage, les consignes, puis pousse l’équipe à vérifier s’il existait d’autres moyens d’accès ou si des travaux ont modifié la zone. Une fois validé, tout est exploitable pour le DUERP.
Et la phrase clé, celle qu’on devrait afficher dans toutes les salles d’enquête, est limpide : l’IA transforme la rapidité en rigueur… à condition d’être intégrée dans un processus gouverné.
Points clés
- L’IA doit structurer l’enquête, pas décider à la place de l’équipe.
- Auditabilité = faits objectivables + preuves + incertitude + versioning.
- Un arbre des causes utile nourrit directement le DUERP et la prévention multi-sites.
- La vitesse n’a de valeur que si elle augmente la rigueur.
Pourquoi la vague est massive. Et pourquoi elle ne repartira pas.
On pourrait croire que l’IA QHSE est un effet de mode, un “buzz” de plus. Ce serait se tromper. La vague est massive parce que le contexte a changé, profondément.
D’abord, les données existent, mais elles débordent les équipes. Accidents, incidents, observations, audits, formations, plans d’action, sous-traitants… le volume est depuis longtemps supérieur à la capacité humaine de traitement.
Ensuite, le niveau d’exigence monte. On ne demande plus seulement “des actions”. On demande une priorisation, un suivi, des preuves d’efficacité, une capacité à justifier. Et sans outils analytiques, cela devient vite une impasse.
Il y a aussi ce phénomène bien connu : après des années d’efforts, certains indicateurs stagnent. Pas par manque de volonté, mais parce que les angles morts restent invisibles. L’IA décisionnelle sert précisément à éclairer ces zones grises.
Enfin, la prévention est de plus en plus vue comme un levier de performance. Moins d’accidents, c’est moins d’arrêts, moins de désorganisation, moins de pertes cachées. Et, surtout, plus de confiance sur le terrain.
QHSE, réussir l’IA … sans se tromper d’IA… ni de combat.
La bonne nouvelle, c’est qu’il ne faut pas réinventer une méthode. Il faut surtout éviter deux pièges. Le premier, c’est d’acheter une “IA” qui fait joli mais ne se connecte à rien. Le second, c’est d’attendre une maturité parfaite des données pour commencer. Entre les deux, il existe un chemin simple, progressif, très opérationnel.
On commence par regarder la matière. Qualité, complétude, cohérence. C’est le sens d’une phase de collecte et structuration, avec cette règle de sérieux : si la donnée n’est pas exploitable, on ne force pas l’analyse, on améliore la collecte.
Ensuite, on choisit un cas d’usage qui crée une preuve de valeur rapidement. Un diagnostic pour décider où agir. Une RTI pour éviter que le terrain ne se noie. Un arbre des causes assisté pour gagner en rigueur et en homogénéité post-accident. C’est exactement la logique proposée : démarrer petit, prouver, puis élargir.
Et, dès le départ, on pose la gouvernance. Humain dans la boucle, traçabilité, gestion de l’incertitude, conformité. L’arbre des causes est un bon modèle : l’IA structure, l’humain décide, et tout est auditable.
Enfin, on mesure l’impact, pas l’activité. Le bon KPI n’est pas “combien de formulaires”. C’est ce que la prévention a réellement changé dans le risque, la gravité, le temps HSE libéré, la pertinence des actions.
Un plan simple
- Démarrez par la donnée, mais ne la sacralisez pas : structurez, testez, améliorez.
- Choisissez un cas d’usage “preuve de valeur”, puis élargissez.
- Gouvernance non négociable : humain, traçabilité, incertitude, audit.
- Mesurez l’impact réel, sinon vous allez “faire de l’IA” sans faire de prévention.
Conclusion : la question n’est pas “quelle IA”. C’est “quel résultat”.
On peut continuer à courir après les événements, à produire des reportings parfaits, à faire des plans d’action qui s’empilent, à espérer que “cette fois” l’organisation retiendra. Ou on peut changer de posture.
L’IA générative a ouvert une porte. Elle a démocratisé l’idée qu’un outil peut aider. Très bien. Mais en Santé Sécurité au Travail, la valeur durable se trouve ailleurs : dans une IA analytique et décisionnelle, capable de détecter, prioriser, recommander, prouver, et transformer la prévention en système pilotable.
Chez Cikaba, c’est notre cap depuis des années. Une IA française, verticale, bâtie avec la recherche, pensée pour le réel, intégrée aux workflows, orientée résultats.
La révolution arrive massivement parce que les risques évoluent plus vite que les méthodes traditionnelles, et parce que les entreprises n’ont plus le choix : elles ont besoin d’une prévention plus intelligente, plus réactive, plus prouvée. Elle est déjà là.
Alors, oui, la question finale reste la plus simple. Presque brutale. Voulez-vous utiliser l’IA pour écrire mieux… ou pour éviter l’accident de demain ?
Takeaways clés
- En SST, une IA utile se juge au prochain accident évité, pas au texte produit.
- La prévention moderne = anticipation + preuve + workflow, pas reporting + intuition.
- La question n’est pas “IA ou pas IA”. C’est “où est votre angle mort, et qui le voit ?”