Intelligence artificielle et sécurité, un enjeu de souveraineté

AUTEUR DE LA PUBLICATION

Patrick Perrot

author-avatar

Patrick Perrot est officier de gendarmerie et titulaire d’un doctorat en intelligence artificielle (Télécoms Paris Tech). Il a combiné des fonctions de commandement opérationnel à l’exercice de la science dans la lutte contre la criminalité. Auteur de différentes publications dans le domaine de l’intelligence artificielle, des sciences forensiques comme du renseignement, il est à l’origine de nombreux développements en IA au profit de la sécurité, il est chercheur associé au sein de la Chaire Law, Accountability and Social Trust in AI portée par la Professeure Céline Castets-Renard, ANITI (Artificial and Natural Intelligence Toulouse Institute) et au Centre d’Étude des Radicalisations et de leurs Traitements (CERT) de l’université de Paris.

Patrick Perrot

Alors que l’intelligence artificielle (IA) est parfois difficile à définir ou à comprendre, elle est devenue incontestablement un enjeu stratégique pour les nations tant sur les applications militaires que civiles. Les États sont évidemment concernés par ce développement et nombre de nations ont initié des plans stratégiques en IA. Mais le domaine est aujourd’hui largement dominé par les grands acteurs du numérique relevant davantage de la sphère privée. Nous sommes dans une période de transition où la souveraineté des États est disputée par le pouvoir des multinationales. Dans le domaine de la sécurité en particulier, cette transition peut avoir des conséquences majeures, génératrices d’un transfert d’activités régaliennes des États vers les géants du numérique. C’est ainsi que l’engagement des forces de sécurité en IA est un impératif au risque d’être totalement dépassées. L’émergence des villes et territoires connectés illustre parfaitement l’urgence pour les pouvoirs publics de trouver leur place dans cet écosystème.

Pour le développement en connaissance d’une intelligence artificielle de confiance.

Les applications en IA ont la capacité d’être bénéfique à l’humanité, mais elles peuvent aussi représenter des menaces si elles sont non contrôlées ou détournées. Elles constituent, en ce sens, un axe stratégique majeur pour les États comme pour les compagnies privées. L’IA permet à la machine de tendre vers l’autonomie en s’inspirant du raisonnement humain. Ce type de définition  témoigne d’emblée de la nécessité de considérer l’IA, non comme un outil informatique mais bien comme un levier de transformation sociétale. Nombreux sont ceux qui voient dans l’IA, le point de bascule vers la singularité, laissant craindre une suprématie de la machine sur l’humain. En réalité, nous sommes encore très éloignés de ce concept de singularité où l’homme ne serait plus maître de son destin. En revanche, nous sommes très proches d’une fracture entre des humains qui maîtriseront la pseudo-autonomie des machines et ceux qui la subiront ou l’utiliseront. La connaissance et la maîtrise de l’IA sont à distinguer de sa simple utilisation. Par des méthodes comme l’apprentissage par renforcement, l’IA est capable de rendre un véhicule autonome mais elle est tout aussi capable de rendre l’humain, qui l’exploiterait comme une boîte noire, dépendant et asservi.

Comprendre l’IA, en maîtriser son fonctionnement est un enjeu de souveraineté majeur qui doit dès à présent concerner les forces de sécurité intérieure. Il ne s’agit pas pour le service public d’être leader sur le plan technologique face à des opérateurs privés déjà très puissants et hégémoniques mais bien de conserver le contrôle des applications, et d’en mesurer les conséquences. L’IA est particulièrement intéressante pour prévenir certaines formes de délinquance, pour détecter les failles des systèmes informatiques et s’en protéger par anticipation, pour identifier des auteurs d’infractions via la reconnaissance faciale lors de l’examen, par exemple, de vidéos à caractère pédopornographique saisies en perquisition… et les exemples d’une exploitation utile et pertinente pour accroître le niveau de sécurité de notre société sont légions. L’objectif n’est pas de promouvoir une société qui repose sur la surveillance, ou de créer un monde imaginé par Georges Orwell mais bien de permettre aux citoyens de mieux vivre ensemble collectivement en offrant un niveau de sécurité accepté et acceptable.

Dans un élan un peu schizophrénique, le citoyen accepte mal l’usage des nouvelles technologies dans l’espace public mis en œuvre par les pouvoirs publics au contraire d’un usage dans l’espace individuel mis en œuvre par un opérateur privé. Nombreux sont les débats souvent plus idéologiques qu’éthiques pour interdire la reconnaissance faciale ou l’emploi de méthodes prédictives. Ces thèmes méritent effectivement réflexion et c’est heureux qu’ils soient sujets à débats mais ils ne doivent pas être traités de façon globale en s’appuyant sur des exemples qui oublient le cadre légal, des exemples qui négligent la protection des libertés individuelles comme des données à caractère personnel. L’exploitation de l’IA dans un cadre de confiance au profit des forces de sécurité est la garantie d’une protection des libertés qui est incluse dans l’activité de sécurité publique et dans la mission des forces de sécurité intérieure. Celles-ci ne doivent pas, sur un domaine aussi vaste que l’IA, se transformer en vassal de géants du numérique. Il ne s’agit pas d’opposer monde privé et monde public mais bien d’être dans une démarche inclusive. 

Expérimenter pour connaître les perspectives comme les limites de l’IA.

Les forces de sécurité intérieure et la gendarmerie nationale notamment s’engagent de plus en plus dans une approche partenariale équilibrée. Longtemps, il était demandé à la sphère publique de fournir les données pour que la sphère privée ou académique les exploite. L’enjeu est trop important pour les pouvoirs publics à la fois dans la conduite des opérations, dans les processus d’aide à la décision, ou encore dans le fonctionnement interne des organisations pour ne pas être au cœur des projets.  Les forces de sécurité ne peuvent exploiter une technologie aussi puissante que l’IA sans en avoir la connaissance et sans en maîtriser le fonctionnement. En d’autres termes, l’IA ne peut être une boîte noire utilisée par les forces de l’ordre, elle est au cœur des enjeux de souveraineté et doit être envisagée comme le vecteur de la transformation capable d’appréhender, de comprendre et d’anticiper les nouvelles menaces sécuritaires. Mais pour pouvoir développer des applications, les évaluer, les confronter aux enjeux éthiques et en mesurer les limites, il faut aussi pouvoir travailler sur des données réelles, des données sensibles et disposer de moyens de calcul. Comme le préconise le rapport « Donner du sens à l’intelligence artificielle : pour une stratégie nationale et européenne » conduit par le député Cédric Villani et remis au premier ministre, il faut mettre en place les conditions pour expérimenter des plateformes sectorielles, pour faire émerger des « bacs à sable » d’innovation et développer une politique de la donnée spécifique à chaque secteur.

Le territoire connecté, un espace partagé entre secteur privé et secteur public.

L’arrivée très prochaine de la 5G va démultiplier les possibilités d’applications des objets connectés notamment dans le concept encore très générique mais en passe de devenir très concret des villes et territoires connectés. Quelle sera la place du citoyen si l’ensemble des données issues des capteurs est la propriété exclusive de quelques géants du numérique ? Quelle sera la place du citoyen, si l’IA n’est pas appréhendée par les pouvoirs publics dans toute sa polysémie ? L’IA exploitant les données issues des objets connectés aura vocation à gérer les flux humains comme de marchandises mais aussi à optimiser les infrastructures pour parvenir à un meilleur cadre de vie. Sur le plan de la sécurité, les données permettront de mieux évaluer le niveau de délinquance en fonction des secteurs et d’apporter une solution juste, proportionnée, et adaptée aux circonstances. L’IA offre la possibilité d’une réponse sur mesure et progressive en anticipant les risques potentiels de dérive. Il restera alors à convenir qui seront les acteurs en charge de cette nouvelle forme de sécurité tant sur le champ de l’action opérationnelle que sur celui de la gouvernance. En effet, un partage entre secteur privé et secteur public apparaît comme indispensable à une prise en compte efficace et responsable des données.

La dimension collective de l’amélioration du cadre de vie ne doit pas s’effectuer au détriment de la dimension individuelle. Les données individuelles seront intimement liées aux données collectives. La protection de l’individu est un enjeu majeur notamment en termes d’exploitation des données à caractère personnel qu’elles soient ou non publiques. Il est alors essentiel de mettre en place une gouvernance souveraine pour protéger l’individu et éviter que la dimension du collectif ne place la ville du futur sous le joug de la surveillance. La Chine qui, en développant un modèle de crédit social place l’individu sous surveillance au profit du collectif, témoigne de cette orientation.  C’est une tendance vers laquelle il est aisé de dériver mais c’est aussi confondre l’objectif et le moyen. La surveillance doit contribuer à l’amélioration du cadre de vie mais elle ne doit pas être la finalité recherchée et ne pas porter atteinte aux libertés individuelles. Spinoza voyait dans la sécurité la fonction principale « de toute société et de tout État ». Il faut entendre fonction au sens mathématique à savoir le moyen qui permet de transformer un état initial et un état final recherché. Cette fonction est donc bien le moyen, l’état final recherché étant le mieux vivre ensemble. La donnée à caractère personnel ne doit ni devenir une valeur marchande, ni être exploitée sans le consentement des individus. Face à cet enjeu souverain, l’État apparaît comme la structure la plus adaptée et présente le plus de garantie en plaçant la sécurité au service de l’amélioration du cadre de vie et non en inversant les objectifs. Confier cet aspect à la sphère privée, c’est prendre le risque d’une concurrence entre les villes, c’est prendre le risque d’une iniquité des services, c’est prendre encore le risque d’une atteinte aux libertés individuelles. Aujourd’hui notamment par les efforts consentis pour le développement de la 5G mais aussi par la course vers la 6G, les géants du numériques se posent comme des alternatives à l’État dans la gouvernance des villes connectées. Au Canada, l’implication de Sidewalks labs, filiale d’Alphabet, la maison mère de Google, dans les projets de « smart cities » notamment à Toronto (aujourd’hui interrompu) révèle l’intérêt de ces géants pour proposer un environnement connecté conforme à leurs objectifs.

Par ailleurs, ces villes du futur (proche) seront aussi particulièrement fragiles car l’IA est à la fois très performante et très vulnérable. Elle est très exposée et sensible à de minimes variations qualifiées d’attaques adverses. La protection doit être intégrée dès les premières réflexions pour protéger le citoyen et une fois encore ne pas le surveiller mais prévenir des blocages ou des prises de pouvoir malveillantes des systèmes. La vulnérabilité est à mesurer au plus tôt afin de concevoir le niveau de protection comme les contres mesures aux attaques qui ne manqueront pas. Prendre possession du réseau de distribution en eau potable ou du réseau électrique, détourner la collecte des déchets, modifier la température des infrastructures, identifier les logements vides, profiler les individus comme les entreprises, perturber la circulation sur la voie publique, provoquer des blocages de circulation, ou même des accidents sont autant de possibilités offertes à la malveillance. La lutte contre les failles systémiques coûte plus qu’elle ne rapporte, elles ne devront pas pour autant être négligées au profit d’applications peu fiables, porte ouverte à toute action de cyber-criminalité ou -terrorisme. Qui d’autres que les pouvoirs publics et les forces de sécurité intérieure pourront faire face à ces défis et attaques malveillantes ?

Outre la protection des données à caractère personnel ou la lutte contre la vulnérabilité des systèmes d’IA, il est un domaine qui doit également être considéré comme une priorité pour l’État, c’est la résilience. En 1949, Georges Orwell nous a proposé une dystopie sur un monde totalitaire reposant uniquement sur la surveillance, René Barjavel, peu de temps avant, proposait une dystopie sur un monde tout technologique mis en danger par la fin de l’électricité. L’IA offre effectivement des perspectives de progrès incroyables mais qui doivent nécessairement être accompagnées par une réflexion sur la capacité de résilience au regard des menaces potentielles. Le sujet de la résilience n’entre pas nécessairement dans les préoccupations du monde privé alors qu’elle doit l’être pour les pouvoirs publics.

Ainsi, en termes de souveraineté de l’IA, les pouvoirs publics ont un rôle considérable à jouer pour éviter de devenir les vassaux des géants du numérique. C’est la raison pour laquelle, il est essentiel pour les forces de sécurité de s’engager en connaissance dans la voie de l’IA en en maîtrisant les fondements, les limites et en développant des partenariats équilibrés. L’implication des forces de sécurité en IA est un impératif pour préserver une sécurité régalienne qui dans les années à venir ne manquera d’être remise en question par l’emprise des géants du numérique sur nos vies quotidiennes.  Et concluons par ses propos d’André Comte-Sponville : « la sécurité de chacun est à la charge de l’État. Mais la sécurité de l’État, dans une République, est à la charge de tous. »

AUTEUR DE LA PUBLICATION

Patrick Perrot

author-avatar

Patrick Perrot est officier de gendarmerie et titulaire d’un doctorat en intelligence artificielle (Télécoms Paris Tech). Il a combiné des fonctions de commandement opérationnel à l’exercice de la science dans la lutte contre la criminalité. Auteur de différentes publications dans le domaine de l’intelligence artificielle, des sciences forensiques comme du renseignement, il est à l’origine de nombreux développements en IA au profit de la sécurité, il est chercheur associé au sein de la Chaire Law, Accountability and Social Trust in AI portée par la Professeure Céline Castets-Renard, ANITI (Artificial and Natural Intelligence Toulouse Institute) et au Centre d’Étude des Radicalisations et de leurs Traitements (CERT) de l’université de Paris.

AUTEUR DE LA PUBLICATION

Patrick Perrot

author-avatar

Patrick Perrot est officier de gendarmerie et titulaire d’un doctorat en intelligence artificielle (Télécoms Paris Tech). Il a combiné des fonctions de commandement opérationnel à l’exercice de la science dans la lutte contre la criminalité. Auteur de différentes publications dans le domaine de l’intelligence artificielle, des sciences forensiques comme du renseignement, il est à l’origine de nombreux développements en IA au profit de la sécurité, il est chercheur associé au sein de la Chaire Law, Accountability and Social Trust in AI portée par la Professeure Céline Castets-Renard, ANITI (Artificial and Natural Intelligence Toulouse Institute) et au Centre d’Étude des Radicalisations et de leurs Traitements (CERT) de l’université de Paris.

Patrick Perrot

AUTEUR DE LA PUBLICATION

Patrick Perrot

author-avatar

Patrick Perrot est officier de gendarmerie et titulaire d’un doctorat en intelligence artificielle (Télécoms Paris Tech). Il a combiné des fonctions de commandement opérationnel à l’exercice de la science dans la lutte contre la criminalité. Auteur de différentes publications dans le domaine de l’intelligence artificielle, des sciences forensiques comme du renseignement, il est à l’origine de nombreux développements en IA au profit de la sécurité, il est chercheur associé au sein de la Chaire Law, Accountability and Social Trust in AI portée par la Professeure Céline Castets-Renard, ANITI (Artificial and Natural Intelligence Toulouse Institute) et au Centre d’Étude des Radicalisations et de leurs Traitements (CERT) de l’université de Paris.