Un véritable engouement- quoiqu’ encore relatif - se dessine : les collectivités territoriales sont de plus en plus nombreuses à explorer l’usage de l’intelligence artificielle. Selon le dernier Baromètre de l’Observatoire Data Publica sur l’utilisation des données dans les territoires, publié en novembre 2024, 36 % des collectivités territoriales avaient déjà mis en place ou testé un système d’intelligence artificielle (SIA) et 15 % annonçaient leur intention de le faire dans les 12 mois suivants. Si toutes les catégories de collectivités sont mobilisées par cette vague de fond, ce taux d’engagement est plus élevé dans les régions (déjà engagées dans des projets d’IA pour 75 % d’entre elles) et les métropoles (62 %). Le nombre total de projets d’IA lancés dans les territoires est ainsi passé d’une cinquantaine en 2023, majoritairement dans les grandes collectivités, à plusieurs centaines dans des collectivités de toutes tailles en 2024.
Parmi les projets déjà déployés, 29 % portent sur la gestion administrative et 11 % sur la relation aux usagers.
Des usages démultipliés par l’IA générative
Les collectivités territoriales utilisent de plus en plus fréquemment des outils s’appuyant sur l’intelligence artificielle pour automatiser des tâches fastidieuses, répétitives et chronophages, pour prendre des décisions plus éclairées, orienter des politiques publiques, renforcer l’efficacité des services rendus, établir des modèles prédictifs permettant d’optimiser leurs ressources et leurs infrastructures, déterminer l’accès aux droits ou encore pour améliorer la relation aux citoyens.
Cela va de la gestion des services informatiques, juridiques ou comptables et budgétaires en interne, à l’urbanisme, l’information des usagers, la gestion de l’eau, des déchets, de la propreté urbaine ou des mobilités, jusqu’à la prévision des risques naturels, les secteurs potentiellement concernés sont très étendus.
Avec la montée en puissance rapide de l’intelligence artificielle générative depuis début 2023, une IA est capable de générer de nouveaux contenus (texte, images, vidéos, audio etc.) en réponse à des requêtes. Des collectivités pionnières se sont ainsi dotées d’agents conversationnels (ou chatbots) à même de comprendre le langage de manière complexe et contextuelle. Ces outils fournissent des réponses structurées, riches et pertinentes, à même de faciliter le travail des agents et d’améliorer les réponses apportées aux usagers.
Les applications potentielles de l’IA générative sont très nombreuses. Une étude publiée par des étudiants de l’INET en avril 2024 estimait que 25 % des processus métiers pouvaient être réalisés au moins partiellement par l’IA générative au sein d’une collectivité témoin (en l’occurrence la ville de Lyon).
Des bénéfices présumés à confirmer
Les bénéfices attendus du recours à l’intelligence artificielle dans les collectivités sont bien identifiés : automatisation des tâches répétitives, gain de temps, amélioration de la qualité et de la personnalisation des services, lutte contre la fraude, etc.
Qu’il s’agisse de détecter et de résoudre automatiquement des incidents informatiques, de remplir automatiquement des bons de commande à partir de modèles préexistants, d’estimer les recettes fiscales à venir, ou encore de permettre la rédaction assistée de comptes-rendus de délibérations ou d’actes administratifs, les SIA sont également censés optimiser la qualité et le volume de travail des agents. En pratique, la réalité est plus nuancée. Une étude menée aux États-Unis a ainsi montré que 77 % des salariés du secteur privé jugent que l’IA alourdit leur charge de travail.
Dans un rapport sur l’utilisation de l’intelligence artificielle par les ministères économiques et financiers, la Cour des comptes estimait, en octobre 2024 : « ces nouveaux outils peuvent ainsi augmenter la charge de travail des services du fait de leurs performances, en détectant par exemple davantage d’irrégularités à traiter, ou du fait de leurs limites, en générant par exemple des réponses erronées qu’il revient aux humains de corriger »
Ce constat est corroboré par LaborIA, laboratoire de recherche dédié à l’impact de l’intelligence artificielle dans le milieu professionnel, selon lequel l’utilisation de systèmes d’IA s’accompagne de durées d’apprentissage et de formation qui s’additionnent aux temps et méthodes de travail habituels des agents.
Des risques avérés à maîtriser
Si les potentialités de l’IA sont indéniables, les risques qui lui sont associés ne sont pour autant pas négligeables. Du fait de biais discriminatoires (biais d’algorithmes ou de machine learning), l’impartialité des SIA n’est ainsi pas sans poser question. D’autant que les utilisateurs de ces outils peuvent être sujets aux « biais cognitifs d’automatisation », c’est-à-dire à une confiance excessive dans les résultats de l’algorithme.
Par ailleurs, les outils d’intelligence artificielle ne sont pas toujours plus performants que l’humain. Plus grave, les résultats délivrés pas toujours exacts, notamment dans le cas d’une IA générative entraînée à partir d’informations obsolètes ou hors du territoire concerné.
Les outils d’intelligence artificielle générative sont ainsi parfois sujets à des « hallucinations », c’est-à-dire que le modèle produit des informations fausses ou inexistantes. Gestionnaire d’une plateforme de GenAI avancée, Vectara estimait entre 1,3 % et 4,1 % le « taux d’hallucinations » parmi les 25 modèles d’apprentissage majeurs du marché les Large Language Mods (ou grands modèles de langage), en novembre 2024.
Or un algorithme qui dysfonctionne peut coûter cher, notamment en termes de vérification humaine ou de maintenance.
Utilisée au service des politiques publiques locales, l’IA peut par ailleurs présenter des risques d’atteinte aux droits et libertés fondamentales. Son exploitation repose sur l’utilisation de données massives et le risque d’atteinte à la vie privée est dès lors non négligeable. Déployée dans l’espace public, l’IA peut également porter atteinte à d’autres libertés publiques, par exemple du fait du déploiement de caméras de surveillance.
Enfin, les conséquences sociales de l’IA, notamment en termes de perte d’expertise métier, de réduction de la capacité d’agir des agents et de diminution du nombre d’emplois, posent question.
Perte de contrôle des données, dépendance aux prestataires, surcoûts budgétaires, impact environnemental et renforcement de la fracture numérique entre agents et entre territoires complètent un tableau qui n’est pas idyllique.
Formation, dialogue social et partage d’expérience : les ingrédients du succès
Dans un rapport présenté en mars 2025, la délégation aux collectivités territoriales du Sénat donne des pistes aux élus pour s’approprier le sujet de l’IA. Pour les sénatrices Pascale Gruny et Ghislaine Senée, de la délégation du rapport d'information : "L'IA, une révolution pour nos collectivités ? », l’écosystème des collectivités territoriales forme un terreau favorable au déploiement de l’IA. Et inversement, l’IA leur offre de nombreuses opportunités. Elles formulent plusieurs recommandations dans cette perspective. Pour « réussir le rendez-vous avec l’IA », les collectivités doivent, selon elles, miser sur la sensibilisation et la formation de leurs élus et agents et sur la mise en place d’un administrateur général des données (ou Chief Data Officer). Les autrices appellent aussi de leurs vœux la création de Comités territoriaux de la donnée, pour favoriser l’échange d’expériences et le partage de la valeur ajoutée liée aux projets d’IA. Elles proposent à cette fin la construction d’une bibliothèque nationale de projets d’IA sous forme d’une plateforme partagée en ligne.
L’IA doit être utilisée comme un appui et non comme un substitut : tel est le cap à tenir.