Vers des frontières « intelligentes » … mais hybrides
Pour répondre aux critiques sur l’opacité des décisions algorithmiques, les dernières générations d’outils de filtrage et d’évaluation proposent l’utilisation de plus en plus affinée de l’IA explicable (eXplainable AI), qui fournit aux agents de contrôle un raisonnement justifié et en langage compréhensible pour chaque décision ou alerte (par exemple un pourcentage de taux d’anomalies estimé et expliqué).
L’IA Explicable a ainsi pour objectifs d’améliorer la précision, la justice, la transparence et la fiabilité des décisions fondées sur l’IA et désigne un ensemble de méthodes permettant aux utilisateurs humains de comprendre et faire confiance aux décisions générées par des algorithmes d’apprentissage automatique. Elle vise, en d’autres termes, à décrire le fonctionnement d’un modèle d’IA, son impact attendu, et ses éventuels préjugés, ce qui va avoir pour effets :
- d’instaurer la confiance dans l’usage des modèles d’IA en production,
- de mieux comprendre les processus de décision de l’IA,
- d’assurer la surveillance et la responsabilité des modèles,
- d’éviter une confiance aveugle dans des systèmes complexes souvent perçus comme des « boîtes noires », notamment ceux utilisant le « deep learning ». Pour rappel, le « deep learning » (apprentissage profond) permet la détection d’objets (personnes, véhicules, drones…), la reconnaissance d’actions et de comportements en vidéo, ainsi qu’une analyse contextuelle plus fine, allant jusqu’à la reconnaissance d’émotions ou de postures.
Les décisions prises par l’IA se doivent d’être explicables ou justifiables pour que les citoyens et les institutions puissent comprendre comment celles-ci sont prises. L’XAI repose ainsi sur des techniques spécifiques permettant de tracer et expliquer chaque décision prise par le modèle considéré. Les objectifs recherchés dans cette démarche sont les suivants :
- la précision des prédictions en comparant les résultats générés par l’XAI avec les données d’entraînement ;
- la traçabilité en limitant les décisions à des règles définies et compréhensibles ;
- la compréhension des décisions en mettant l’accent sur la formation des équipes, lesquelles auront davantage confiance dans le processus, si elles connaissent le raisonnement ayant conduit aux résultats fournis par l’IA.
Renforcer la confiance des systèmes mis en place passe également, de l’avis des experts, par le maintien de leur hybridité, c’est-à-dire par un contrôle humain en continu, par le développement d’équipes pluridisciplinaires, ainsi que par des mécanismes de gouvernance et audits réguliers des algorithmes.
Si le cadre réglementaire se met progressivement en place, l’« AI Act » de l’Union européenne considérant le domaine de la sécurité intérieure comme un système à haut risque et imposant en conséquence des exigences strictes, il peine encore à encadrer certains usages de l’IA dans l’espace public, ne serait-ce qu’en matière de reconnaissance faciale.
C’est la raison pour laquelle l’avenir semble pencher vers une IA hybride au service de la sécurité en général, du contrôle des frontières en particulier. Une IA qui ne remplace pas l’humain, mais l’assiste efficacement grâce à l’allégement de la charge cognitive des opérateurs, la détection précoce et systématique des anomalies et une aide à la décision sans autonomisation complète.
Les retours d’expérience montrent déjà que l’IA peut accroître considérablement la réactivité des services sans pour autant court-circuiter la chaîne de décision humaine. Encadrée par des garde-fous juridiques, éthiques et techniques de façon à ce que la sécurité ne se fasse pas au détriment des libertés, l’IA, qu’elle soit émotionnelle, explicative, hybride ou autre, représente sans conteste une opportunité sans précédent pour accélérer la modernisation du contrôle des frontières et le renforcement de la sécurité de ces dernières, la technologie servant dans ce cas de catalyseur à l’évolution actuelle des process et des politiques migratoires en cours.
(Par Murielle Delaporte)