Le spectre de l'intelligence artificielle (IA) est maintenant bien présent et il n'est pas question de revenir en arrière. Cependant, comme les technologies d'autoapprentissage ne cessent d'engendrer des innovations et des avancées en matière de mégadonnées, la nécessité de fixer des limites et des attentes qui permettront de maîtriser les risques inhérents à l'IA se fait de plus en plus sentir.

Ce n'est pas un défi facile à relever. Les algorithmes intelligents et les technologies d'apprentissage automatique s'étendent bien au-delà de la portée de la réglementation et des modèles de gouvernance actuels. Afin de suivre l'évolution de la situation, le rapport suivant porte sur l'utilisation de l'IA par les organisations du monde entier et sur les répercussions juridiques, éthiques et logistiques qui en découlent.

On ne peut nier la valeur de l'IA. De nombreuses organisations canadiennes utilisent déjà les technologies d'apprentissage automatique pour automatiser leurs activités principales, générer des renseignements cruciaux, améliorer les interactions avec la clientèle et prendre des décisions stratégiques. Les institutions financières, par exemple, tirent parti des programmes d'IA dans le but de justifier et de prévoir les activités essentielles, mais coûteuses, tandis que les spécialistes de la santé se servent de modèles d'IA pour poser des diagnostics, prévoir les menaces pesant sur la santé publique et y faire face. Parallèlement, les organisations commerciales de toutes sortes ont recours à l'IA pour analyser leurs marchés respectifs et définir des stratégies plus rentables et durables.

Ces avantages comportent des risques. Face à l'essor de l'IA, de l'apprentissage automatique et de l'assistant intelligent, nous devons nous assurer qu'ils sont conçus à partir des données les plus précises, les plus objectives et les plus pertinentes qui soient. Il faut également élaborer des lignes directrices pour que l'IA respecte l'éthique et soit résiliente, et que l'on continue à surveiller les aspects associés au phénomène de dérive des modèles et à y remédier rapidement.

Il est évident qu'on doit mettre en place une gouvernance de l'IA. Même si des homologues aux États-Unis, au Royaume-Uni et en Estonie montrent l'exemple, il n'y a pas de consensus clair à l'échelle mondiale sur les pratiques exemplaires à adopter. Pour notre part, la solution AI in Control de KPMG propose à nos clients et à nos pairs du secteur une approche consistant à adopter l'IA en s'appuyant sur les pratiques exemplaires de quatre grands piliers : intégrité, explicabilité, équité et résilience. Nous pensons que la question n'est pas seulement de faire appel à l'intelligence artificielle pour réaliser des progrès, mais de le faire de manière à préserver la confiance et à obtenir les résultats escomptés.

Il est encourageant de constater qu'au Canada, il existe un réseau florissant de pionniers en IA, d'universitaires et de consortiums désireux de devenir un chef de file dans ce domaine. La prochaine étape consistera à collaborer avec nos homologues des secteurs public et privé afin d'établir des normes claires et convenues en matière de gouvernance de l'IA. Dans l'avenir, nous allons plaider en faveur d'une collaboration mondiale afin que les parties prenantes des secteurs public et privé unissent leurs efforts pour faire de l'IA une force de changement positif.

Réalisons-le.

Related resources