Actualités

L’Intelligence artificielle, un enjeu essentiel pour la sécurité

Auteur : capitaine Marine Rabasté - publié le
Temps de lecture: ≃6 min.
© Tous droits réservés

Mi-avril, la gendarmerie participait au premier salon mondial de l’intelligence artificielle, à Cannes. Une présence qui allait de soi pour l’institution qui, à travers sa stratégie de transformation, développe cette technologie sur l’ensemble de son spectre d’action.

Oubliez les robots humanoïdes pourvus de sentiments et susceptibles de se substituer à l’Humain. L’Intelligence artificielle (I.A.), ce n’est pas ça. Les représentations culturelles, au rang desquelles on pourrait citer les films I. Robot ou A.I., tendent à fausser l’idée globale que l’on se fait de cette technologie complexe, mais ouvrant un champ des possibles infini. Pour le scientifique Stephen Hawking, elle est même « le plus grand événement de l’histoire de l’humanité ». Alors, qu’est-ce que l’I.A. ? C’était tout l’objet du premier salon mondial de l’intelligence artificielle, qui s’est tenu à Cannes, du 15 au 19 avril : permettre à chacun de s’interroger et de le comprendre. Et parmi les 120 exposants, la gendarmerie avait son stand, animé par des personnels du Service de la transformation (S.T.), dont le coordonnateur national, le général Patrick Perrot, et une équipe du Data Lab du Service des technologies et des systèmes d’information de la sécurité intérieure [ST(SI)²].

Un vecteur de transformation

Dans le cadre de sa stratégie de transformation Gend 20.24, la gendarmerie a engagé une véritable expansion technologique, répondant aux besoins de l’ensemble de l’institution. Cette démarche prend en compte l’intégration de l’I.A. Pour le contrôleur général Christophe Jacquot, chef du Service de la transformation, « elle permet d’accroître le niveau de sécurité, que ce soit dans le domaine de la sécurité publique, de l’ordre public, de la sécurité routière ou de la police judiciaire, d’améliorer le service rendu à la population et de valoriser le gendarme, en libérant de la marge d’initiative » (Cultur’IA n°2). L’I.A. irrigue donc tout le spectre d’action de la gendarmerie.

Mal connue, fantasmée, crainte, elle demeure toutefois une notion complexe, qu’il est difficile de vulgariser, au risque d’en dénaturer le sens. Et pourtant, elle ne peut être niée et il serait inconscient de vouloir s’en passer, tant les progrès et les performances qu’elle engendre sont inégalables. Le général Patrick Perrot en faisait d’ailleurs l’analyse dans un article rédigé pour CyberCercle, en déclarant que « nous ne pouvons ignorer que le niveau actuel de l’intelligence artificielle supplante d’ores et déjà les performances de l’intelligence humaine dans bien des domaines : l’I.A. calcule mieux, mémorise mieux, voit mieux, détecte mieux, classifie mieux... » C’est pourquoi, dès la fin de l’année 2020, la gendarmerie a lancé un MOOC « I.A. », à destination de tous ses personnels, auprès desquels elle diffuse également une revue bimestrielle, Cultur'IA, pour une meilleure appropriation de l'I.A. dans le domaine de la sécurité.

À noter : selon la norme ISO 2382-28, l’I.A. est définie comme « la capacité d’une unité fonctionnelle à exécuter des fonctions généralement associées à l’intelligence humaine, telles que le raisonnement et l’apprentissage. »

Optimiser la lutte contre la délinquance

L’I.A. apporte une plus-value majeure en matière de lutte contre la délinquance. Aujourd’hui, les sources de données sont nombreuses et hétérogènes : communications SMS ou réseaux sociaux, géolocalisation, images, sons, vidéos, et bien d’autres encore. En analysant cette masse d’informations conséquente en un temps record, elle permet d’orienter l’action des forces de sécurité. L’étude des interventions au cours des années antérieures sur un secteur donné permet, par exemple, de déterminer le nombre de patrouilles nécessaires afin de couvrir un maximum d’interventions et, ainsi, d’optimiser l’empreinte terrain. C'est l'objet des développements autour d'une analyse prédictive des faits de délinquance comme des interventions.

En matière judiciaire également, l’I.A. trouve toute sa place. L’analyse de l’environnement d’un délinquant et l’exploitation des différentes données contribuent à mettre en évidence des signaux faibles et ainsi à anticiper l’activité criminelle.

Replacer l’Humain au cœur de l’action

En matière de sécurité publique générale, l’I.A. s’inscrit parfaitement dans la volonté d’accroître le contact humain entre les forces de sécurité et la population. Si elle ne remplace pas le gendarme, elle allège néanmoins ses tâches. Grâce à un système performant d’exploitation des données et une rapidité d’analyse, elle libère aux gendarmes du temps, qui sera mis à profit auprès de la population. L’I.A. a donc toute sa place dans la stratégie de transformation Gend 20.24, visant à recentrer l’action de la gendarmerie sur la population et à placer cette dernière au cœur de la mission.

Ses bénéfices sont également visibles dans le domaine des Ressources humaines (R.H.). En mettant à disposition du gestionnaire des outils lui permettant de traiter plus rapidement les différentes données ou de répondre à des questions de portée générale, l’I.A. lui permet de se recentrer sur le militaire, apportant ainsi plus d’humanité au traitement de son dossier. Une illustration concrète de cette transformation est la mise en place des chatbot, d’abord à destination des officiers (2019), puis des sous-officiers du corps technique et administratif (2020) et, enfin, des sous-officiers de gendarmerie et des volontaires (2021).

Dans ce domaine, la gendarmerie a d’ailleurs été précurseur, puisqu’il s’agit du premier chatbot R.H. de la fonction publique à destination des agents. Le principe est simple : le gendarme pose une question à l’interface, qui va lui répondre directement dans les secondes qui suivent. Mais aucun humain n’apporte cette réponse, l’I.A. seule s’en occupe. La question atteint en fait un moteur conversationnel, qui va comparer ses termes avec des données et des phrases de référence prédéfinies par le concepteur du chatbot. À la suite de cette comparaison, le moteur va apporter la réponse qui semble être la plus pertinente.

Une I.A. « en confiance »

« L’impact à court terme de l’intelligence artificielle dépend de qui la contrôle. Et, à long terme, de savoir si elle peut être tout simplement contrôlée. » Ce discours de Stephen Hawking amène à se poser la question du cadre dans lequel est développée l’I.A. Comment développer une I.A. « positive » ? Pour fonctionner, l’I.A. collecte et traite une masse de données conséquente, dont celles à caractère personnel. L'I.A. est assujettie à un cadre juridique, tant sur le plan administratif que judiciaire, garant du respect des libertés individuelles. À ce cadre juridique s’en ajoute un second : le cadre éthique. Selon le domaine d’action, il faut veiller à la place de l'Humain dans le processus de décision. La décision finale doit relever d'un choix et d'une supervision de l’Humain. Le principal concerné par la mesure doit également connaître les principes fondamentaux qui lui ont permis d’aboutir. Il ne s’agit en effet pas de remplacer le décideur par la technologie, mais d’améliorer les process pour faciliter sa tâche. L’I.A. n’est pas une fin en soi et doit être utilisée en complémentarité des actions humaines et exploitée à bon escient. Pour éviter les dérives ou usages malveillants, il est donc nécessaire de la comprendre et d’en connaître les effets. C’est la stratégie poursuivie par la gendarmerie dans son processus d’intégration de l’I.A. et de publication de sa charte éthique, afin que cette dernière soit une force positive, au service du citoyen.