WestWorld, la faute à qui ?

Spoiler alert : nous attirons nos lecteurs sur le fait que cet article contient des éléments assez importants de la série HBO WestWorld. Si vous n'avez pas encore visionné cette série et avez l'intention de le faire, nous vous conseillons vivement d'éviter la lecture de cet article.

Plantons le décor : WestWorld, c'est un parc d'attractions recopiant l'époque du western et abritant des robots ressemblant de façon troublante aux humains. Chaque jour, ces derniers leur font subir mille tourments. Comme ça, par amusement. Chaque nuit, les robots sont réinitialisés et le manège recommence, inlassablement. Cependant, au fil du temps, les robots - créés par un certain Dr Ford - acquièrent la conscience de leur réalité et des horreurs que les humains leur font subir. Et là, le scénario part complètement en cacahuètes. En effet, les robots se rebellent, avec pour ambition de prendre possession du parc, ainsi que de leurs propres corps et esprits

. Du coup, ça part en bain de sang complet, avec des humains qui se font allègrement zigouiller par des robots, sans pitié aucune. 

Mais lors du visionnage de cette série, une question très sérieuse nous vient : si un tel scénario se produisait dans le monde réel, qui pourrait être considéré comme responsable de ce massacre ? Les robots eux-mêmes ? Leur créateur ? Personne ? 

A dire vrai, il n'existe pas encore de réponse claire et explicite à cette question. Le droit cherche encore une manière adéquate d'aborder l'avènement de l'intelligence artificielle. Alors en attendant, on cherche des solutions dans ce qui existe déjà en droit belge. Petit tour de quelques idées (accrochez-vous) : 

Tout d'abord, le robot peut-il être responsable de son propre fait ? A priori non, car il lui faudrait pour cela avoir commis une faute. Le droit considère la faute comme une action éminemment humaine car consciente. Or, l'intelligence artificielle gagne toujours plus en autonomie et non en conscience. Mais si c'était le cas ? Si un robot devenait un jour véritablement conscient de sa réalité, comme dans WestWorld ? On le condamne à payer des dommages et intérêts ? Nous doutons qu'il soit titulaire d'un compte en banque. Bon après, un tel scénario, ce serait un peu la fin du monde donc soit. 

Par contre, l'utilisateur d'un robot peut être considéré comme responsable s'il utilise ce dernier dans le but de commettre une faute ou un acte illégal. Or, dans WestWorld, il s'avère que le Dr Ford - créateur des robots - tire en réalité toutes les ficelles du jeu. Et faire abattre par l'intermédiaire de ses robots des dizaines d'invités à son propre banquet, on n'est pas certain que ce soit tout à fait légal, voyez-vous. 

Ensuite, l'utilisateur d'un robot peut être jugé responsable s'il a commis un défaut de prévoyance, à savoir qu'il n'a pas anticipé l'acte - pourtant prévisible - qu'allait commettre le robot. Mais plus le robot est autonome (coucou WestWorld), plus cette prévisibilité est difficile à établir. 

Un autre scénario serait de considérer les robots comme des choses. A partir de ce moment-là, l'on pourrait se pencher sur la loi belge qui estime que le gardien d'une chose en est responsable en cas de vice. Le Dr Ford serait ainsi responsable des vices de ses robots. Sauf qu'un vice implique que les robots soient défectueux. Dans WestWorld, les robots commencent à agir de leur propre gré. Les ingénieurs pensent au début qu'il s'agit justement d'un dysfonctionnement interne aux robots. Mais en réalité, il s'agit d'une reprogrammation. Les robots ne sont donc pas affectés d'un vice. Ils sont juste devenus un peu dingues sur les bords. 

En somme, si WestWorld pouvait rester de la science-fiction le temps que l'on règle cette petite affaire de responsabilités des intelligences artificielles, ça nous arrangerait bien. 

Commentaires