Chaque fois que vous parlez à Siri ou que Netflix vous propose une suggestion de film selon vos goûts, vous utilisez l’intelligence artificielle (IA). Vous l’utilisez également avec Google Translate. Cette plateforme qui au départ nous proposait toutes sortes de traductions loufoques, a fait un pas de géant en matière de précision, notamment grâce à l’avènement du Deep Learning (apprentissage profond). Cette avancée technologique coïncide avec le moment où le programme IBM Watson remporte le jeu télévisé Jeopardy devant ses deux meilleurs candidats (cela se produisait en 2011) et qu’en 2017, le programme AlphaGo bat le champion du monde du jeu de go. Petit à petit, l’IA s’installe dans nos vies sans qu’on s’en rende compte. Pour l’instant, nous y voyons surtout le bon côté, soit le côté givré! Pourrait-il y avoir un « côté obscur de la force »?

Le côté obscur de l’IA

Comme je le disais dans mon récent billet, l’Ordre s’est justement penché sur cette question. Nous y voyons d’innombrables possibilités, mais les experts que nous avons interrogés pour la rédaction d’un avis sur la question nous ont laissé entrevoir certains enjeux moins reluisants.

Ainsi, nous avons identifié trois enjeux:

  1. socio-économiques: accentuation des déséquilibres dans la répartition des richesses, pression sur l’emploi et transformation du monde du travail et des professions;
  2. techniques: interprétation/compréhension des décisions des algorithmes et de leurs impacts, respect de la vie privée, protection des données et consentement, sécurité (incluant la cybersécurité), gestion des biais volontaires ou involontaires;
  3. juridiques et éthiques: responsabilité de l’humain, niveau acceptable de délégation à l’IA, préservation des intérêts collectifs.

Sans s’opposer à son évolution, il est important de mettre en place des cadres et des garde-fous afin d’éviter la dérive dans l’utilisation de ces technologies qui seront de plus en plus puissantes et efficaces.

Pourquoi avons-nous participé à la Déclaration de Montréal?

Nous croyons que l’intelligence artificielle doit être utilisée pour servir le bien-être de notre société. C’est d’ailleurs ce qui a motivé notre décision de participer à la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle. Cette initiative de l’Université de Montréal, lancée le 3 novembre 2017, a permis de rassembler des citoyens, des experts et des parties prenantes de tous les horizons autour de questions éthiques utiles pour la société.

Les premiers résultats ont été dévoilés lors de l’événement Frontière IA le 14 juin dernier et nous étions présents. Bien que la sortie du rapport final soit prévue en décembre 2018, des enjeux prioritaires sont déjà identifiés et ils s’articulent autour des principes de la Déclaration de Montréal. En tête de liste, on retrouve la responsabilité humaine en matière de décision, la préservation de l’autonomie individuelle, le respect de la vie privée et le bien-être. Suivent les principes de connaissance, de justice et de démocratie.

Montréal veut devenir un leader dans la réflexion éthique dans le domaine de l’intelligence artificielle. Nous avons la plus grande concentration de chercheurs au monde (environ 250 selon Montréal International) et le MILA est l’un des centres en apprentissage profond les plus reconnus au monde. Yoshua Bengio, qui en est le directeur-fondateur, est l’un des chercheurs québécois dont les travaux sont les plus cités en apprentissage profond à travers le monde, comme en témoigne cet article publié dans Forbes. Bien que Montréal soit une plaque tournante en intelligence artificielle, les États-Unis en sont le chef de file mondial. La Chine a l’ambition d’occuper le premier rang en 2030. Suivent ensuite, parmi les leaders actuels, le Royaume-Uni, l’Allemagne et la France, ainsi qu’Israël (Source: Roland Berger GMHB).

« L’idée derrière l’instauration de la Déclaration de Montréal est simple :  puisque l’intelligence artificielle affecte la vie et les intérêts de la société, l’IA est l’affaire de tout le monde, et chacun doit avoir son mot à dire sur les orientations désirables de son développement. Il s’agit non seulement de réfléchir collectivement aux enjeux éthiques, mais également d’offrir des réponses crédibles aux questions urgentes et de formuler des recommandations pour les responsables politiques, les développeurs et les entreprises mais aussi pour les chercheurs. La confiance des citoyens à l’égard les décideurs publics et les entreprises dans le développement de l’IA dépend de ce travail d’encadrement éthique et de l’application de ces principes. »

Recommandations de portée générale de l’Ordre et de nos collaborateurs

L’Ordre a rédigé un avis qui présente nos recommandations en collaboration avec 23 ingénieurs de diverses disciplines et des représentants de l’écosystème de l’IA. Nous l’avons déposé aux coordonnateurs de la Déclaration de Montréal le 5 juin dernier. Ainsi, dans mon précédent billet, je vous ai fait part des 8 recommandations contenues dans cet avis ayant une portée au sein de la profession d’ingénieur.

Voici maintenant les 9 recommandations de portée générale:

  1. intégrer la formation aux technologies numériques dans les cursus postsecondaires et universitaires et en particulier à l’IA, porteuses de perspectives d’emploi;
  2. s’assurer de la compréhension des algorithmes construits par les machines autoapprenantes et les documenter dans le respect de la réglementation;
  3. instaurer des mécanismes de contrôle et de protection (ex. la rétroaction) pour corriger les systèmes et les biais éventuels sur la base de la compréhension de l’ensemble des facteurs (données et valeurs clés notamment) utilisés par l’IA;
  4. adopter une réglementation souple et évolutive intégrant les notions reprises par la «protection de la vie privée dès la conception» (Privacy by design) et les bonnes pratiques, par exemple, le Règlement général sur la protection des données (RGPD) qui est entré en vigueur le 25 mai 2018 dans l’Union européenne, en matière de cybersécurité et de protection des données (consentement, collecte de données strictement utiles, hébergement, portabilité);
  5. veiller à ce que les développeurs et les ingénieurs, en particulier, prévoient des dispositifs de débrayage/blocage dès la conception des systèmes d’IA afin d’en conserver le contrôle en cas de défaillance (voire éteindre) et d’en comprendre la cause;
  6. Se conformer à la réglementation des différentes professions ainsi qu’aux dispositifs de certification de systèmes des industries et faire évoluer les textes le cas échéant afin d’encadrer les activités qui dépendent fortement des systèmes d’IA;
  7. mettre en place des mécanismes GAN (Generative Adversarial Networks) pour mettre à l’épreuve les résultats fournis par les systèmes d’IA;
  8. assurer un traitement rapide et transparent des réclamations des utilisateurs/citoyens qui auraient été affectés par les effets défavorables d’un système d’IA;
  9. compte tenu des risques de biais identifiés par les experts (dont les biais sexistes et racistes) et le besoin de faire bénéficier les projets de vues multiples, il semble pertinent de promouvoir l’emploi diversifié et féminin dans le développement de systèmes d’IA.

Comment intéresser plus de femmes aux nouvelles technologies?

Notre recommandation no 9 rejoint l’engagement de l’Ordre d’appuyer le programme 30 en 30 d’Ingénieurs Canada qui a pour objectif de faire en sorte que 30 % des nouvelles diplômées en ingénierie soient des femmes en 2030. En tant qu’ambassadrice de ce programme, attirer un grand nombre de femmes en génie me tient à cœur. J’ai d’ailleurs rédigé un billet sur le sujet récemment. Compte tenu des risques de biais sexistes, il faudra trouver des manières de promouvoir l’emploi diversifié et d’inclure les femmes dans le développement de systèmes d’IA. Saviez-vous que la première personne qui a programmé un ordinateur était une femme? Elle s’appelait Ada Lovelace. Cela démontre que la diversité dans une équipe est source d’idées nouvelles et qu’elle génère des solutions novatrices. Dans le domaine de l’IA, il sera très important de favoriser l’interdisciplinarité (sociologues, éthiciens, juristes) dans les équipes de conception et de développement des systèmes d’IA pour aider l’ingénieur à prendre des décisions éthiques.

Qu’est-ce qui expliquent les progrès fulgurants dans le domaine de l’IA?

À voir toutes les multinationales qui s’installent dans notre métropole, notamment Facebook, Samsung, Google et Thales, la grappe sur l’intelligence artificielle qui est en formation et les starts-up spécialisées en apprentissage profond qui poussent comme des champignons, on a l’impression que l’intelligence artificielle est un concept nouveau. Pourtant, il a vu le jour dans les années 1950. Les progrès dans ce domaine sont nombreux: puissance de calcul des ordinateurs, raffinement des algorithmes et abondance de données précises (médias sociaux, cookies Internet, publicités, etc.). Les applications multiples de l’IA expliquent l’augmentation des subventions en recherche qui joueront un rôle déterminant au Québec, au Canada et aussi dans le reste du monde.

Nous sommes conscients que l’intelligence artificielle se glisse en douceur dans nos vies et c’est pourquoi nous devons penser dès maintenant aux balises qui encadreront son développement et aux responsabilités qui y sont liées. Pour ces raisons, l’Ordre souhaite poursuivre cette réflexion avec ses membres et les parties prenantes.

Et vous, quel est l’impact de l’IA dans votre vie ou dans votre domaine d’activités professionnel?

Kathy Baig

Kathy Baig

Je me nomme Kathy Baig, je suis ingénieure et présidente de l’Ordre des ingénieurs du Québec depuis le 22 juin 2016. J’anime ce blogue dans le but d’échanger avec les membres, les parties prenantes et le public sur différents sujets et enjeux touchant à notre profession. Ce blogue permettra aussi de partager et commenter les différentes actions contenues dans le Plan ING2020 pour accentuer la protection du public et améliorer la pratique professionnelle.

Répondre