Développer une intelligence artificielle sécuritaire au sein du gouvernement numérique

 

Harrison, T. M., & Luna-Reyes, L. F. (2020). Cultivating Trustworthy Artificial Intelligence in Digital Government. Social Science Computer Review, 0894439320980122.

Contexte

Bien qu’il y ait un consensus croissant sur le potentiel des outils analytiques et cognitifs utilisant l’intelligence artificielle (IA) pour transformer l’État, l’IA remet en question les processus de prise de décision traditionnels de l’État et les valeurs démocratiques sur lesquels ces processus sont fondés. L’existence de ces enjeux favorise l’adoption d’approches conservatrices envers l’IA. Ces approches mettent l’accent sur le développement et la préservation de la confiance du public. D’après les connaissances actuelles sur le sujet, les outils analytiques d’IA peuvent poser des menaces à la confidentialité, l’autonomie, l’équité et la justice dans la vie quotidienne des citoyens. Cette publication offre un ensemble de recommandations qui permettent de préserver la confiance envers l’IA. Les chercheurs suggèrent également des axes de recherche liés à ces recommandations.

Définition

L’équipe de recherche mobilise le modèle à lentille étendu comme cadre conceptuel. Le modèle de lentille de Brunswick a été développé à l’origine pour expliquer comment les organismes vivants interagissent avec leur environnement. Ce modèle suppose que le jugement humain et la prise de décision se basent sur la perception et l’interprétation des éléments dans un environnement spécifique, à travers une série d’éléments de données (des indices) agrégées en utilisant une forme de calcul pour poser un jugement (une prévision) sur ceux-ci (les éléments observés).

L’utilisation du modèle de lentille étendu pour améliorer la prise de décision permet de montrer que la réalisation de prévisions dans un environnement spécifique et la fiabilité des jugements sont influencées par des facteurs supplémentaires qui n’avaient pas été inclus au départ dans la réflexion sur une prise de décision particulière. La prévisibilité de l’environnement dépend de la relation entre les événements et les indices, mais peut également être affectée par une sélection inadéquate des indices à utiliser.

Résultats
  • L’IA dite « étroite » est actuellement la forme d’IA la plus répandue. Ce type d’IA est en mesure de résoudre des problèmes dans un seul domaine. L’apprentissage automatique, les réseaux de neurones artificiels, les réseaux de neurones profonds et le traitement du langage naturel sont des exemples d’utilisation de l’intelligence artificielle étroite.
  • Les chercheurs relèvent quatre enjeux à prendre en considération pour une prise décision appuyée par l’IA digne de confiance :
  1. La fidélité des informations du système. Plusieurs enjeux peuvent nuire à l’obtention de données complètes, valides et précises. Les données proviennent de sources multiples assemblées dans des contextes divers avec des pratiques de gestion des données différentes et potentiellement inconnues. Cela peut mener à une variabilité élevée dans la validité et la qualité des données.
  2. Fiabilité de l’acquisition des informations par le décideur. Lors du nettoyage, de l’intégration et de l’application à la résolution de problème des données, plusieurs décisions sont prises par des humains qui inévitablement ont leurs propres biais. Les logiciels d’IA nécessitent de multiples décisions sur des enjeux comme la sélection des données à inclure dans une analyse, la gestion des valeurs manquantes, la pondération des données et l’intégration des données avec différents niveaux d’agrégation.
  3. Modèles environnementaux robustes versus approches basées sur les données. Les stratégies d’IA se concentrent sur l’utilisation des données disponibles pour localiser une combinaison de facteurs prédictifs et dériver un ensemble de règles de décision. Par conséquent, la nature « contrôlée par les données » des solutions d’IA pose des questions liées à l’équité et à la protection de la vie privée.
  4. Évaluation de la prévision. Les stratégies d’IA ne se prêtent pas nécessairement aux évaluations et critiques humaines. Cela nuit à la pleine compréhension de la nature des calculs des algorithmes, ce qui entrave la communication de la logique algorithmique à ceux qui sont affectés par les décisions algorithmiques.
Messages clés pour la politique et la pratique
  • L’opacité des algorithmes menace les valeurs de transparence, de justification et de responsabilité. L’IA devrait donc être utilisée de manière conservatrice. L’objectif devrait être d’accumuler différentes applications réussies de l’IA dans des contextes à faible risque pour le bien-être des citoyens.
  • Les chercheurs recommandent trois stratégies pour développer des systèmes d’IA dignes de confiance :
    • la responsabilité algorithmique ;
    • les audits algorithmiques ;
    • le développement et les tests d’IA participatifs.
  • Des structures de gouvernance pour le développement de l’IA doivent être créées. Elles doivent mettre l’accent sur l’identification des normes, structures, mécanismes et processus encadrant la prise de décision basée sur l’IA dans les organisations gouvernementales.
  • Le Data Management Body of Knowledge (DMBOK) est une norme pour l’industrie pour évaluer la gestion des données. Elle contient des recommandations pour 9 dimensions de la gestion des données :
    • La gouvernance des données
    • L’architecture et le design
    • La gestion de bases de données
    • La gestion de l’accès aux données (sécurité)
    • La gestion de la qualité des données
    • La maîtrise de la gestion des données
    • La gestion des entrepôts de données et de l’intelligence d’affaires
    • La gestion des enregistrements
    • La gestion des métadonnées
  • La clé pour établir des standards pour l’ensemble des 9 dimensions est la gouvernance. Elle implique la création d’organes formels de décision et des pratiques régularisées et systématiques.
Méthode et limites de la recherche
  • Cette publication est un article conceptuel.
  • Une limite de cette publication est que les chercheurs ne connaissent pas le niveau de déploiement de l’IA au sein des gouvernements ainsi que la fréquence à laquelle l’utilisation de l’IA est réussie.
  • Des recherches approfondies documentant le développement, l’utilisation et les résultats des implantations de l’IA ne sont pas disponibles.
Financement de la recherche

Les chercheurs n’ont pas reçu de soutien financier pour la recherche ou la publication de cet article.