Intelligence artificielle et politiques publiques : où allons-nous ?

Lauterbach, A. (2019). Artificial intelligence and policy: Quo vadis? Digital Policy, Regulation and Governance.

 

Contexte

L’intelligence artificielle (IA) progresse à un rythme rapide. Lorsqu’elle est implantée dans une organisation, elle affecte tous les aspects de la culture organisationnelle et permet aux employés de prendre des décisions basées sur des données en temps réel. Malgré ses bénéfices, l’IA, comme d’autres technologies, peut renforcer le contrôle. Dans plusieurs cas, les décideurs publics pourraient vouloir s’impliquer et réguler les applications de l’IA. Dans cette perspective, les décideurs pourraient créer des règles bureaucratiques qui freinent l’innovation ou encore rechercher des compromis pour s’assurer de la transparence de l’IA et de la confiance de la population envers ces technologies. Cette publication vise à informer les décideurs publics des risques liés aux technologies de l’IA et des tendances dans les stratégies nationales des États en matière d’IA.

Définition

Dans la pratique, l’IA regroupe des technologies et des disciplines scientifiques qui se concentrent sur l’automatisation, l’accélération, l’extrême évolutivité de la perception humaine, la prise de décision et le raisonnement. Il existe différents types d’IA; l’IA étroite attitrée à une seule tâche, l’IA générale et la super IA.

Résultats
  • Les décideurs publics ont besoin de développer une vision éclairée, scientifiquement fondée et prospective sur ce que les sociétés et les entreprises peuvent espérer de l’IA.
  • Il y a un manque de transparence sur les risques clés de l’IA et les régulations qui peuvent les gérer.
  • Les risques liés à l’IA sont présentés sous trois catégories par la chercheuse :
    • Les erreurs de conception : les biais des ingénieurs des systèmes d’IA et les inégalités potentielles qui en résultent (c’est-à-dire la discrimination par rapport au genre ou à l’âge).
    • Les intentions malveillantes : les comportements non éthiques des créateurs d’un système qui cherchent à exploiter les utilisateurs.
    • L’absence d’humains dans la boucle : les systèmes deviennent capables de réutiliser les données et l’expérience provenant de tâches antérieures pour en résoudre des nouvelles.
  • Les chercheurs américains sont, jusqu’à présent, responsables d’une grande partie des innovations en IA. Les chercheurs chinois sont excellents pour transposer une idée en produits commercialisables.
  • La publication résume les stratégies de plusieurs États en IA :
    • Canada — Pan-Canadian AI Strategy 2017 élabore un plan de cinq ans ; la priorité est accordée à la R&D et l’acquisition de talents.
    • Commission européenne - Communication on AI vise à augmenter l’adoption de l’IA dans les secteurs publics et privés et à mettre en place un cadre éthique et juridique approprié.
    • Finlande - Work in the Age of Artificial Intelligence. Ce document fournit 28 recommandations liées à quatre aspects de l’avenir du travail, de la croissance et de l’emploi, du marché du travail, de l’apprentissage et des compétences et de l’éthique. La Finlande veut devenir un des meilleurs pays au monde pour l’application des technologies de l’IA.
    • France - Programme National de Recherche en Intelligence Artificielle : Devrait mener à la création d’un réseau de quatre à cinq instituts de recherche. La France veut développer une politique de données ouvertes, notamment dans le secteur des soins de santé. Au total, la France investira 1,5 milliard d’euros dans l’IA d’ici la fin de la période de cinq ans en cours.
    • Allemagne - La stratégie allemande en IA a été dévoilée au Digital Summit de 2018. Elle vise à créer des centres IA dans les universités et budgète 3 milliards d’euros pour la recherche. Le German Research Center for Artificial Intelligence est un acteur majeur de la recherche et du financement pour la recherche appliquée en IA.
    • Inde - Met l’accent sur la manière dont l’IA peut renforcer l’inclusion sociale. Les technologies de l’IA indiennes devraient être utilisées pour aider les États en développement.
    • Corée du Sud - Un plan de cinq ans a été lancé (1,7 milliard d’euros). Le gouvernement veut établir six écoles supérieures en IA d’ici 2022 pour former 5000 spécialistes. Un plan à court terme est également prévu pour former 600 spécialistes.
    • Suède - National Approach for Artificial Intelligence vise à s’assurer que les avantages de l’IA soient bénéfiques pour la compétitivité et le bien-être. Cette stratégie indique que la Suède doit former des professionnels de l’IA plus qualifiés, accroître la recherche fondamentale et appliquée en IA et développer un cadre juridique pour assurer le développement d’une IA durable.
    • Royaume-Uni - AI Sector Deal vise à positionner le pays comme un leader mondial. Il encourage la R&D, l’éducation STIM (sciences, technologies, ingénierie et mathématiques), les talents et la conversation sur l’éthique. Ce plan prévoit des investissements de 300 millions dans le secteur privé, l’expansion du Alan Turing Institute, la création du Turing Fellowships et le lancement du Centre for Data Ethics and Innovation.
Messages clés pour la politique et la pratique
  • Pour mettre en place des régulations destinées aux compagnies qui ont complètement intégré l’IA, il est nécessaire d’avoir une compréhension supérieure de leurs technologies et de leurs modèles d’affaires, ainsi qu’une coordination large entre les États.
  • La chercheuse indique que partout dans le monde, une attention particulière devrait être accordée à la littéracie en IA. Elle devrait être développée dans les écoles et appuyée par les employeurs privés et les programmes gouvernementaux.
  • La conception d’une IA sécuritaire peut seulement être réalisée par l’adoption de différentes formes de leadership : un processus permettant à différents groupes de la société d’assumer et de mettre en œuvre des responsabilités collectives.
  • Les compagnies qui ont complètement intégré l’IA devraient être obligées de créer des comités d’éthique pour assurer une conception sécuritaire de l’IA. Elles devraient mettre en place des mécanismes de gouvernance pour rendre leur travail transparent et accessible.
  • La pensée critique, la créativité, l’inventivité, l’esprit d’entreprise sont plus importants que la formation de travailleurs standardisés.
  • La tenue de marathons de programmation municipaux devrait devenir une pratique commune, ce qui permettrait d’encourager l’innovation, d’augmenter la visibilité des technologies de l’IA et générer de l’engouement pour une société numérique participative.
Méthode et limites de la recherche
  • Cette publication s’appuie sur une recherche qualitative.
  • Les données ont été collectées à travers une centaine d’entretiens avec des chercheurs, des dirigeants d’entreprises traditionnelles et de jeunes entreprises et des décideurs politiques dans sept États. Les entretiens ont été menés en janvier et août 2017.
  • La publication n’inclut pas d’informations sur les marchés émergents.
Financement de la recherche

Il n’y a pas d’information sur le financement de la publication.