L’intelligence artificielle n’est plus un sujet « pour plus tard ». Dans la fonction publique, elle s’installe déjà, parfois discrètement, à travers des outils intégrés aux logiciels, des assistants rédactionnels, des fonctions de tri, de synthèse, d’extraction ou d’aide à la décision. Au CASVP, la question n’est plus « si », mais « comment ». Et surtout : avec quelles règles, quelles garanties, et quel dialogue social.
L’enquête UNSA Fonction Publique est sans détour : 65% des agents ne connaissent pas les initiatives IA de leur employeur et 85% n’ont pas été consultés lorsque des démarches IA existent.
Dans ces conditions, laisser l’IA se déployer « au fil de l’eau » reviendrait à accepter une transformation du travail sans méthode, sans transparence, et sans débat.
L’IA n’est pas un simple outil : c’est une réorganisation par l’outil
Quand l’IA intervient dans la rédaction, la synthèse, le tri, la priorisation, la production de documents ou l’aide à la décision, elle ne fait pas « gagner du temps » de façon neutre.
Elle transforme les gestes professionnels, elle redéfinit ce qui compte, ce qui est contrôlé, ce qui est attendu.
Elle peut améliorer certaines tâches, mais elle peut aussi standardiser les réponses, déplacer la responsabilité sur l’agent en cas d’erreur, et accentuer la pression par des injonctions de productivité.
Et au CASVP, il ne s’agit pas seulement d’organisation interne : la qualité du service rendu et la relation aux usagers sont directement concernées. Un outil peut accélérer… et produire des réponses inadaptées, approximatives, ou déshumanisées.
Sans dialogue social structuré, les risques se compliquent
Ce qui pose problème, ce n’est pas l’innovation. C’est le flou.
Le flou sur les outils réellement utilisés, sur leur finalité, sur les données mobilisées, sur les accès, sur l’hébergement, sur la traçabilité, sur la façon dont l’encadrement peut s’en servir pour piloter l’activité.
Le flou aussi sur une frontière essentielle : aide à la décision ne doit jamais devenir décision à la place.
Les retours d’expérience le montrent : pour une IA de confiance, le dialogue social est indispensable, de la conception jusqu’à l’évaluation, et sur toute la durée des projets.
C’est aussi le seul levier qui permet de garantir les droits fondamentaux des agents : droits individuels, santé et sécurité au travail, protection des données, responsabilité professionnelle.
Ce que l’UNSA CASVP demande : transparence, règles écrites, garanties
L’UNSA CASVP demandera une information formelle en instance, avec une cartographie claire des outils IA existants, à la Ville et au CASVP, en expérimentation ou envisagés, et une présentation de la gouvernance : qui décide, qui valide, qui contrôle, qui évalue. Il n’est pas acceptable de parler « d’expérimentation » sans dire ce qui est testé, où, avec quelles données, et avec quels impacts.
Nous porterons aussi la nécessité d’un cadre écrit, qui fixe des règles d’usage, protège les données, et garantit que l’IA reste un outil d’assistance.
Ce cadre doit inclure un principe non négociable : l’humain reste décisionnaire, notamment lorsqu’il s’agit de situations individuelles.
Il doit également prévoir une formation réelle avant tout déploiement, et un suivi régulier avec bilans, corrections et, si nécessaire, arrêt d’un outil qui dégrade les conditions de travail ou la qualité de service.
L’IA peut être utile au service public, mais pas au prix d’une transformation silencieuse du travail. Les chiffres parlent : 65% des agents ne savent pas ce qui se déploie, 85% n’ont pas été consultés. Au CASVP, l’UNSA défendra une ligne simple : pas d’IA sans cadre, pas de cadre sans négociation, pas de négociation sans transparence. Parce que derrière l’IA, il y a le travail réel, les responsabilités, la santé au travail, et le service rendu aux usagers.
