La moralité de l'intelligence artificielle

Luccioni, A., Bengio, Y. (2019). On the Morality of Artificial Intelligence. Institut québécois d'intelligence artificielle, Université de Montréal.

Contexte

Au cours des dernières années, les technologies d’intelligence artificielle (IA) ont été davantage employées au sein de la société. Ainsi, la technologie de l’IA est appliquée dans des domaines variés tels que les soins de santé, les transports ou encore la production industrielle. Ce déploiement de l’IA a permis une prise de conscience des impacts sociaux (positifs et négatifs) découlant d’une telle technologie. En matière d’étude de l’impact social et éthique de l’IA, la plupart des recherches existantes ont été axées sur la définition des principes éthiques et des lignes directrices relatives à l'apprentissage machine (Machine Learning) et d'autres algorithmes d’IA. Bien que ces différentes recherches soient pertinentes pour définir les normes sociales appropriées de l'IA, le potentiel et les risques d’une telle technologie doivent également être discutés. En outre, il convient d’encourager les applications socialement bénéfiques de l’IA.

Cet article effectue, dans la première partie, un survol des principes éthiques et des lignes directrices éthiques existant concernant l’IA. Dans la seconde partie, les auteurs énoncent des principes et des lignes directrices pour la recherche et le déploiement de l’IA et ce, tant au niveau conceptuel que pratique. Dans la troisième partie, l’emphase est mise sur les actions concrètes pouvant être prises par les praticiens pour poursuivre une pratique plus éthique et morale de l’apprentissage machine en vue d’utiliser l'IA pour le bien social.

Définition

La notion centrale de l’article est celle de « pratique éthique de l’IA ». Ces dernières années, les réflexions éthiques ont pris des formes variées pour assurer un développement et une utilisation responsable et sécuritaire de l'IA telles que l’élaboration de principes guidant le développement socialement responsable de l'IA ou la création de chartes (p. ex., la Déclaration de Montréal pour un développement responsable de l'intelligence artificielle).

Résultats

Premièrement, à mesure que la technologie de l’IA devient plus puissante, son impact peut être proportionnellement plus important, tant positivement que négativement. Pour en limiter l'impact négatif, les praticiens de l’IA doivent devenir plus « sages » tant individuellement (c’est-à-dire au niveau des décisions personnelles) que collectivement (c’est-à-dire au niveau des normes sociales, légales et réglementaires).

Deuxièmement, dans les faits, les avancées technologiques en matière d'IA ont progressé plus rapidement que la sagesse individuelle et collective. Ce décalage donne l’opportunité aux individus et aux organisations de produire des effets destructeurs majeurs et ce, à grande échelle. Dans cette perspective, l'une des approches les plus notables en matière d’éthique pour le déploiement de l'IA est la Déclaration de Montréal pour un développement responsable de l'intelligence artificielle. Cette déclaration, élaborée en 2017 et révisée en 2018 sur la base des retours du public, a été basée sur le postulat suivant : puisque l'intelligence artificielle finira par toucher tous les secteurs de la société, la définition de principes éthiques et de lignes directrices est nécessaire pour guider son développement et, ainsi, garantir l’adhésion des parties prenantes aux valeurs humaines et au progrès social. La Déclaration de Montréal comporte dix principes, allant de la protection de la vie privée à l'égalité de représentation, certains principes touchant directement à la responsabilité et à l'éthique.

Troisièmement, à l’initiative du l'IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems, une étude approfondie a été conduite sur l'éthique de la conception des systèmes d'IA. Les auteurs de cette étude mettent en évidence le potentiel de l'IA pour la résolution des problèmes urgents du monde (p. ex., le changement climatique et la pauvreté). Toutefois, ils soulignent le fait que malgré leur grand potentiel, le déploiement et le développement actuels de l'IA ne sont pas orientés sur ces objectifs.

Quatrièmement, s’il existe plusieurs préoccupations éthiques concernant les applications de l'IA, cette publication se concentre davantage sur les préjugés conduisant à une discrimination potentielle. Ces biais, numériques ou textuels, peuvent être présents de différentes manières dans les algorithmes : (1) par la nature des données elles-mêmes, (2) par le développeur du système, et (3) par la formulation du problème. Par conséquent, pour garantir des systèmes d’IA aussi équitables et éthiques que possible, il y a des mesures à prendre pour identifier les biais et tenter de les réduire autant que possible.

Cinquièmement, malgré les initiatives de recherche visant à définir des normes sociales appropriées en matière d'IA, l’écart entre les recommandations qu'elles formulent et les moyens d'assurer leur respect est toujours considérable. Par ailleurs, si la législation sur l'IA est en train de rattraper son retard sur la technologie, aucune loi nationale n’est actuellement dédiée à l’utilisation de l'IA.

Messages clés pour la politique et la pratique
  • L’IA est porteuse d'un grand potentiel de changement et de perturbation. L’article illustre quelques projets inspirants (p.ex., en matière d’éducation, d’environnement ou de soins de santé) visant à rendre le monde meilleur et utilisant les techniques et les approches puissantes de l’apprentissage machine.
  • Les chercheurs et praticiens travaillant sur l’apprentissage machine ont la responsabilité de contribuer à ces efforts. Pour proposer des solutions innovantes aux problèmes urgents, il est crucial d’adopter une dynamique collective. Dans les faits, le développement de liens entre les développeurs, les acteurs industriels et politiques, ainsi qu’avec des experts d'autres disciplines pertinentes est nécessaire. De plus, une évaluation des expériences passées permet d’en mesurer à la fois les impacts positifs et négatifs et d’ajuster, le cas échéant, le système d’IA.
  • Il est essentiel d’identifier et de minimiser les biais au sein des systèmes d’IA. Dans cette optique, un travail de réflexion sur les pièges et les impacts néfastes de ces biais est nécessaire. Ce travail est d’autant plus crucial que les biais textuels ou numériques contenus au sein des systèmes d’IA peuvent provenir de sources différentes (p. ex., la nature des données, le développeur ou la formulation du problème).
Méthode et limites de la recherche
  • Aucune méthode n’a été établie dans l’article.
  • Il n’y a pas de limite de la recherche mentionnée dans l’article.

 

Financement de la recherche

Il n’y a pas d’information concernant le financement dans l’article.