Sortie en 2015, Ex Machina est un très bon exemple de science fiction pensante, où la technologie n’est pas une excuse pour des scènes d’actions trépidantes, mais une occasion de se poser des vraies questions. Celles-ci portent évidemment sur les robots et notre attitude par rapport à eux, mais par analogie elles peuvent également nous faire penser sur nous-même, et sur notre relation à notre propre créateur. Je trouve aussi que ce film est une très bonne base pour penser à la question de la moralité.
L’histoire
Attention spolieur, je vais résumer rapidement l’intrigue du film, spoliant ainsi le lecteur du plaisir de découvrir l’histoire en le regardant. Continuez à vos propres risques.
Le film est construit pratiquement comme en huis clos, non pas entre huit mais 4 protagonistes, dont 2 humains. Caleb est un jeune informaticien travaillant pour une méga-entreprise informatique du nom de blue book (pensez « google sous un autre nom »). Il est invité par Nathan, le fondateur et directeur de son entreprise, à venir passer une semaine dans son lieu de vie et laboratoire secret et retiré. Nathan a construit une androïde du nom d’Ava, et souhaite utiliser Caleb pour tester l’intelligence d’Ava. Dans la version classique d’un tel test (« test de turing »), l’humain ignore a priori s’il a affaire à un humain ou à une machine. En l’occurrence, Nathan souhaite voir si Caleb sera convaincu qu’Ava est une personne, bien qu’il sache qu’elle est une machine. Ava est tenue isolée dans une section de la demeure de Nathan
Le dernier personnage est Kyoko, un autre androïde, qui semble doté d’une psychologie plus rudimentaire qu’Ava, et qui sert de servante et probablement d’esclave sexuelle à Nathan, lequel la traite avec un profond mépris.
Au cours des entretiens de Caleb avec Ava, celle-ci exprime un intérêt amoureux envers lui, ainsi que sa détresse d’être confiné à une seule pièce. Caleb a par ailleurs l’occasion de voir des enregistrements vidéo sur l’ordinateur de Nathan, qui vont instiller en lui le doute sur la moralité de la détention des androïdes. Il voit entre autre une précédente version d’Ava se démolir entièrement le bras en frappant contre les parois qui la retiennent et en criant « pourquoi ne me laisses-tu pas sortir ! ». Il apprend également que Nathan reprogramme régulièrement le cerveau de son androïde pour en produire une nouvelle version, effaçant tous ses souvenirs et ses expériences.
Finalement, Caleb parvient à aider Ava à sortir de son confinement. Avec l’aide de Kyoko, celle-ci tue froidement Nathan, puis quitte les lieux en laissant Caleb enfermé à l’intérieur du complexe. Cela indique au spectateur que, comme Nathan l’avait indiqué à Caleb, l’intérêt apparent d’Ava pour lui n’était que manipulation, destinée à obtenir son aide.
Créateur et créature
Au travers du récit et des dialogues, Ex Machina permet de d’interroger sur les liens entre créateur et créature, ou plus précisément sur les droits de la créature. Nathan fonctionne essentiellement avec l’approche selon laquelle il a tous les droits sur les androïdes qu’il a fabriquées[1]. Il estime légitime de les garder confinées, de les employer à ses propres fins, et de mettre un terme à leur existence quand bon lui semble. Caleb, est amené à trouver cela plus que discutable. Outre ses sentiments, ses choix semblent aussi déterminés par l’idée que l’androïde a des droits du moment qu’elle est une personne consciente. Entre autre, il envisage avec horreur l’éventualité de l’annihilation de l’Ava qu’il a connue, jusqu’à sa conscience. Le film amène ainsi adroitement le spectateur à réfléchir à ces aspects. La vue de Caleb semble plus humaine et acceptable, pourtant au final son action mène à la mort de Nathan, à la destruction de Kyoko, et à la perte de tout contrôle sur Ava. Or après avoir vu cette dernière mentir, manipuler et tuer, on est en droit de craindre son comportement à venir. Probablement que Nathan savait n’avoir pas créé un être bon, à qui l’on pouvait donner la liberté sans crainte, mais Caleb fait preuve d’un idéalisme naïf qui ne voit pas le danger
Moralité
En effet, Caleb semble présumer la sincérité d’Ava, et d’une certaine manière la traite comme un être humain injustement retenu prisonnier. La conclusion du film est une désillusion cruelle pour lui ; lui qui pensait agir pour délivrer son amoureuse robotique se trouve laissé en arrière, sans explication ni remerciement, dans une situation qui n’est pas meilleure que celle d’Ava initialement. On peut de plus être effrayé par le sang froid avec lequel Ava achève Nathan ; elle ne montre aucune des émotions qui pourraient s’associer à un tel acte chez un humain : ni hésitation, ni choc, ni remord, ni colère. En bref, Ava ne montre aucun élément de moralité, et paie bien mal de retour l’aide fournie par Caleb.
Cette absence de moralité ne devrait pourtant pas surprendre Caleb. Le cerveau électronique d’Ava fonctionne sur la base du moteur de recherche de la firme de Nathan. Elle a un accès à une quantité d’information quasi-illimitée, et les facultés d’analyses nécessaires pour en extraire les principes qui lui permettront d’agir. Mais rien n’indique que Nathan lui ait implanté un quelconque sens moral. Or l’accumulation d’information ne dit pas ce qui doit être et ce qu’il faut faire[2]. Si un ordinateur connaît un but qui est bon, il peut arriver à calculer quels sont les faits et comportements qui sont optimaux par rapport à ce but. Mais sans tel point de départ, il n’y a pas de moralité possible. Soit dit en passant, Nathan aurait sauvé sa peau en lisant Isaac Asimov en en implantant au moins les trois lois de la robotique à Ava. Mais bref, l’expérience de pensée que constitue ce film permet de bien se rendre compte qu’il ne suffit pas d’avoir un être rationnel pour avoir un être moral Pour nous, cela nous indique qu’il y a nécessairement une base méta-rationnelle à la moralité humaine. Ce que Caleb présume chez Ava mais qu’elle n’a pas, c’est un sens moral donné par son créateur.
Bref, Nathan n’a donné à Ava ni moralité, ni liberté, et l’inconscience de Caleb fait qu’il donne la liberté à cet être amoral. Nathan ne se reconnaît pas d’obligations vis-à-vis de ses androïdes, mais il pense à ses responsabilités face au monde extérieur. Tout cela peut nous permettre de réfléchir sur le rapport entre Dieu et l’homme. Il y a quelque chose de scandaleux à créer un être pensant, mais privé de toute liberté. Mais créer un être pensant et libre sans moralité est dangereux, c’est pourquoi Dieu donne à l’homme une certaine liberté et une responsabilité morale. Cependant, il ne se défausse pas de toute responsabilité sur l’homme. Que Doit donc faire Dieu lorsque l’homme emploie sa liberté pour mal agir ? Doit-il le reprogrammer en effaçant son identité ? Cela nous fait frémir. Doit-il le laisser faire indéfiniment ? Cela serait terrible. Peut-être ce qui serait mieux serait de maintenir la conscience de ces personnes, mais de les priver de leur moyen d’agir. C’est à vrai dire précisément ce qui se passe dans la doctrine de l’enfer2, qui est si difficile à admettre de nos jours : ceux qui emploient leur volonté au mal et n’auront pas voulu être transformés en bien seront maintenu en existence, mais dans un état qui en leur permette pas de multiplier leurs mauvaises actions.
Jean-René Moret, 2016
Notes
[1] Curieusement, les androïdes fabriquées par Nathan sont toutes d’aspect féminin, tandis que les personnages humains du film sont tous des hommes. Cela traduit en tout cas les fantasmes de Nathan, et pourrait donner lieux à des réflexions sur le rapport entre les sexes. Je ne m’y lance pas, mais on peut consulter cette critique et cette autre critique.
[2] C’est ce qu’on appelle la loi de Hume, que je cite dans la formulation de R. Boudon : « On ne peut tirer une conclusion à l’impératif de prémisses qui seraient toutes à l’indicatif. » (Raymond Boudon, Le relativisme, PUF, Que sais-je ?, 2008. p. 15-16., d’après https://fr.wikipedia.org/wiki/Loi_de_Hume)