Les engins autonomes et la responsabilité
Il est curieux de lire que certaines personnes se demandent à qui reviendrait la responsabilité d’une intelligence artificielle si celle-ci prenait une décision engendrant une catastrophe. Il semble que l’intelligence artificielle ne soit pas reconnue comme une citoyenne autonome en pleine possession de ses capacités cognitives. Il est donc normal que la responsabilité incombe au propriétaire de l’intelligence artificielle en question, les tribunaux de la plupart des pays possèdent des outils légaux pour définir ce genre de responsabilité. La question maintenant est, est-ce que nous voulons effectivement donner son autonomie à une intelligence artificielle ? Le fait est que nous ne sommes pas arrivés à ce stade-ci au niveau de la science et de l'ingénierie. Les systèmes restent encore très rudimentaires comparés aux prouesses cognitives que peut atteindre un être humain. Il est donc trop tôt pour se poser ce genre de question, mais nous devons-nous l’à poser tout de même, car plusieurs compagnies se sont lancées dans l’aventure des voitures autonomes, ce qui pose plusieurs problèmes éthiques du côté des concepteurs de ces systèmes et du côté du droit civil. Le chemin intellectuel emprunté par ces compagnies est que ces engins autonomes doivent évoluer dans le même environnement que les êtres humains. C’est une manière de faire effectivement, mais cela pose les problèmes que nous avons listés juste au-dessus. Une alternative serait de séparer les environnements des engins autonomes et des êtres humains. Nous le faisons déjà avec les piétons et les voitures. Les autoroutes sont interdites aux piétons et à tout véhicule ne pouvant pas atteindre une vitesse minimale. Il est tout à fait possible de réserver des autoroutes pour les véhicules autonomes. Bien entendu, avant de faire cela, un État attendra que la majorité de la population possède ce genre de véhicule. Si un véhicule s’introduit dans une autoroute pour véhicule autonome, le système prendrait le pas sur la conductrice ou le conducteur. On ne parlerait plus de véhicules autonomes, mais de routes intelligentes. Hors de ces routes, la conduite devrait être complètement manuelle, tout en profitant des outils d’aides à la conduite. Cela semble un design plus réaliste et applicable sachant que les systèmes informatiques n’ont pas du tout le bon niveau de cognition pour évoluer dans le même environnement que nous. De ce fait, les concepteurs et les législateurs n’auraient plus vraiment de problèmes éthiques, car l’environnement des routes intelligentes serait aussi bien contrôlé que les voies ferroviaires ou les voies aériennes. Nous voyons bien ici que ce genre de problème n’est pas que technique. Plusieurs acteurs aux profils différents, venant de domaines différents, doivent travailler ensemble pour trouver le bon design. Il semblerait qu’il serait de bon ton que les élus des gouvernements, des villes et des villages se transforment en chef de projet et en agrégateur de compétences pour penser la civilisation de demain avec l’aide des civils et des entreprises.

Le contrôle de nos intelligences artificielles
Un sujet délicat est la protection des données personnelles ainsi que le suivi et le contrôle de nos intelligences artificielles. Si nous n’établissons pas des règles rapidement, dans quelques années nous serons dépassés. L'Union européenne a donné le coup d’envoi concernant la protection de la vie privée. Mais ce n’est qu’un début, il faudra s’assurer que les règles sont bien appliquées et seul un organisme de contrôle indépendant pourra s’assurer de cela. Il faudrait aussi que ce dernier possède les outils techniques pour mettre en place une telle surveillance. Un autre sujet, qui n’a pas encore été abordé de manière sérieuse, est celui du contrôle des intelligences artificielles. La manière dont elles sont programmées actuellement en utilisant la technique des réseaux de neurones oblige les concepteurs à utiliser beaucoup de données à des fins d’apprentissage. Ces données sont compilées et encodées dans le programme d’intelligence artificielle pour que celui-ci soit fonctionnel dans un mode de production. Le problème est qu’il n’est pas possible de suivre l’évolution d’une prise de décision dans ce genre de programme, c’est pour cela que la communauté appelle cela une boîte noire. Donc durant le mode apprentissage du programme, si un concepteur mal intentionné a modifié un ensemble de données utilisées pour l’apprentissage afin de faire apprendre au programme un comportement différent, il n’est pas possible de détecter ce nouveau comportement avant que le programme d’intelligence artificielle agisse. Difficile dans ce cas de prévenir les erreurs de prise de décision automatique. Des travaux sont en cour pour ouvrir cette boîte noire, mais le chemin à parcourir est encore long. De plus, les réseaux de neurones ont été conçus au départ comme une boîte noire, un nouveau design serait utile à la communauté et au monde industriel afin de respecter les droits de la société civile. Différentes techniques existent dans le domaine de l’intelligence artificielle, certaines ont fait leurs preuves dans des projets industriels et l’avenir semble prometteur pour le domaine. Celui-ci devient de plus en plus mature, mais demande une attention particulière, car il va jouer un rôle majeur dans l’avenir de nos sociétés. Un grand travail est encore à faire pour la communauté de l’intelligence artificielle pour s’approcher de la plasticité de la cognition humaine. Profitons de ce temps pour s’assurer que l’être humain restera au centre de l’équation afin de garder tout le contrôle nécessaire à son propre développement.
Auteur: MIckeal Camus (PhD)