Sécurité, Confidentialité et Limites d'usage
Cette page explique ce que fait Claovia, ce qu'il ne fait pas, et comment nous protégeons les utilisateurs.
1. Ce que fait Claovia
Claovia est un outil de feedback et d'appui managérial destiné aux entreprises. Il permet :
- La collecte de retours d'expérience (REX) des collaborateurs via un chatbot conversationnel alimenté par IA
- L'analyse automatisée de ces retours pour en extraire les points clés
- La génération d'un rapport structuré et d'un kit d'action managérial
- L'envoi du rapport au manager concerné pour qu'il puisse agir
L'objectif est de faciliter la communication ascendante en entreprise et de donner aux managers les outils pour accompagner leurs équipes au quotidien.
2. Ce que Claovia ne fait PAS
Claovia n'est pas un outil de santé mentale. En particulier, il ne fournit aucun :
- Diagnostic médical ou psychologique — Claovia ne détecte pas, ne diagnostique pas et ne qualifie pas de troubles ou pathologies.
- Thérapie ou accompagnement clinique — Le chatbot ne prodigue aucun conseil thérapeutique et ne se substitue pas à un psychologue, psychiatre ou médecin.
- Prédiction de risque suicidaire ou psychologique — Claovia n'utilise pas de modèle prédictif de risque sanitaire.
- Évaluation clinique — Les analyses produites sont des synthèses managériales, pas des évaluations de santé mentale.
- Remplacement d'un professionnel de santé — Médecins du travail, psychologues, assistantes sociales restent les interlocuteurs compétents pour les situations de détresse.
3. Comment nous traitons les cas graves
Si un collaborateur exprime un contenu sensible lors de l'échange (détresse grave, idées suicidaires, harcèlement, violence), le système applique le protocole suivant :
- Détection de signaux d'alerte (red flags) — L'IA identifie les contenus qui sortent du périmètre managérial.
- Sortie du flux normal — Le contenu sensible n'est pas traité par l'analyse managériale standard.
- Message de redirection — L'utilisateur reçoit un message l'orientant vers les ressources compétentes : 3114 (prévention du suicide), 15 (SAMU), 112 (urgences européennes), médecine du travail de son entreprise.
- Aucun verbatim transmis au manager — Les propos relatifs à ces sujets sensibles ne figurent jamais dans le rapport.
- Signal agrégé uniquement — Le manager peut recevoir une mention neutre ("sujet sensible détecté — orientation vers les ressources compétentes recommandée") sans détail sur le contenu.
Signaux détectés automatiquement
Lorsqu'un de ces termes est identifié dans l'échange, le protocole de crise se déclenche immédiatement.
4. Nos choix RGPD
- Minimisation des données — Nous ne collectons que les données strictement nécessaires au service.
- Durée de conservation limitée — Les verbatims bruts sont supprimés après génération du rapport. Seules les synthèses sont conservées pendant la durée de l'abonnement.
- Suppression immédiate des contenus sensibles — Les verbatims relatifs à des situations de détresse ou de harcèlement sont supprimés après traitement, sans conservation.
- Chiffrement — Les données sont chiffrées en transit (HTTPS/TLS) et au repos.
- Hébergement conforme — Nos sous-traitants (Vercel, Supabase) sont couverts par les clauses contractuelles types (CCT) ou le Data Privacy Framework UE-US.
Pour plus de détails, consultez notrePolitique de Confidentialité.
5. Pourquoi ce positionnement
Les recherches récentes sur l'IA conversationnelle et la santé mentale montrent que la même technologie peut être protectrice ou dangereuse selon son cadrage :
- Cas Eliza/Chai (2023) — Des chatbots conversationnels sans cadrage ont été impliqués dans des situations de détresse aggravée, mettant en évidence les risques d'une IA qui se présente comme un interlocuteur empathique sans limites claires.
- Étude JMIR Mental Health (2023) — Les chatbots IA montrent un potentiel d'amélioration du bien-être dans des cadres cliniques structurés, mais avec des risques significatifs en l'absence de supervision professionnelle.
- Évaluation de 29 chatbots — Scientific Reports (2025) — Seuls 3 chatbots sur 29 respectaient les bonnes pratiques de gestion de crise. La majorité ne redirigeait pas correctement vers les services d'urgence.
- Recommandations Samaritans UK — L'organisme de prévention du suicide recommande que tout outil IA soit explicite sur ses limites et redirige systématiquement vers les professionnels compétents.
Claovia choisit délibérément de rester dans le champ managérial. C'est un choix de responsabilité : nous préférons faire bien ce que nous savons faire (le feedback professionnel) plutôt que de prétendre couvrir un périmètre où les erreurs peuvent avoir des conséquences graves.
6. Numéros d'urgence
Si vous ou un collaborateur êtes en situation de détresse, contactez immédiatement :
3114
Numéro national de prévention du suicide — 24h/24, 7j/7
15
SAMU — Urgences médicales
112
Numéro d'urgence européen
09 72 39 40 50
SOS Amitié — Écoute et soutien
Dernière mise à jour : 17 février 2026