Sections

Les androïdes de la saga Alien sont-ils pour 2093 ?

Les androïdes de la saga Alien sont-ils pour 2093 ?

02.09.2019, par
David (Michael Fassbender), ici dans «Prometheus» (Ridley Scott, 2012), est sans doute la première intelligence artificielle à jouer les savants fous à l'écran !
Trois ans avant «Blade Runner», Ridley Scott mettait déjà en scène un androïde capable de passer pour un humain dans «Alien, le 8e passager». Pourrons-nous parler avec des machines aussi douées d'ici à 2093, année où débute l'action de la série de films ? Réponses avec Frédéric Landragin, coauteur de «L’Art et la science dans Alien» à paraître cette semaine à l'occasion des 40 ans du premier film de la saga.

Attention, cet article contient plusieurs spoilers sur la série de films Alien !

 

Le monstre parasite du rôle-titre a tendance à occulter la figure de l’androïdeFermerRobot d’apparence humaine. Étymologiquement, ce « qui ressemble à l’homme » (du grec andros, « homme »). On peut aussi parler d’ « humanoïde »., pourtant omniprésente dans la saga Alien, comme souligné dans votre livre. Vous pouvez nous rappeler de quels robots il s’agit ?
Frédéric Landragin1 : Le premier, par ordre d’apparition, est Ash, l’androïde de Alien, le 8e passager (Ridley Scott, 1979). Il parvient si bien à se faire passer pour un humain qu'on ne découvre sa nature artificielle que dans le dernier tiers du film. Ensuite il y aura Bishop, moins bluffant et peu présent dans Aliens, le retour (James Cameron, 1986) et Alien3  (David Fincher, 1992).

Concevoir une machine dotée d’émotions ou de buts personnels et capable de se faire passer pour un humain, comme certains de la série de films Alien, est aujourd’hui totalement illusoire.

Puis l'inoubliable Call, dans Alien, la résurrection (Jean-Pierre Jeunet, 1997), qui a l’air plus humaine et compatissante que Ripley, certes devenue un clone hybridé avec de l’ADN d’alien... Enfin, le machiavélique David dans Prometheus (Ridley Scott, 2012) et son antagoniste, Walter, dans Alien: Covenant (Ridley Scott, 2017). Bien entendu, concevoir une machine dotée d’émotions ou de buts personnels et capable de se faire passer pour un humain, comme certains de cette liste, est aujourd’hui totalement illusoire...

 

La perfection de leur aspect et de leurs mouvements (Call est si adroite qu’elle joue à attraper un gobelet avec des gants de boxe !) semble également loin de ce qu'on réalise en laboratoire ou dans l'industrie. Mais si on s’en tient au langage seul et à sa compréhension...
F.L. : Même dans ce cas, nous sommes encore loin du compte ! Dans Alien, le 8e passager, Ash parle avec fluidité, participe aux conversations et met en avant ses avis et ses arguments : aucun robot réel n’atteint un tel niveau de maîtrise du langage.

Malgré ses limites abyssales par rapport à Ash l'androïde, «Maman», superordinateur de bord du Nostromo, surpasse de loin les capacités de nos machines parlantes de 2019.

Et regardez « Maman », superordinateur de bord, neutre et factuelle, non-incarnée dans un corps, à laquelle l'équipage du Nostromo pose des questions via un clavier : malgré ses limites abyssales par rapport à Ash l'androïde, elle surpasse de loin les capacités de nos machines parlantes de 2019. Maman parle et comprend le langage humain, on peut donc lui formuler des requêtes (aussi complexes que « Quelles sont nos chances de survie ? », NDLR) sans écrire un programme en langage informatique ni réfléchir à une manière spécifique de communiquer.

Call (Winona Ryder), androïde de 2e génération, a l’air plus humaine que Ripley (Sigourney Weaver), devenue froide et surhumaine dans «Alien, la résurrection» (Jean-Pierre Jeunet, 1997).
Call (Winona Ryder), androïde de 2e génération, a l’air plus humaine que Ripley (Sigourney Weaver), devenue froide et surhumaine dans «Alien, la résurrection» (Jean-Pierre Jeunet, 1997).

Mais c’est déjà ce que l’on fait avec les assistants Siri et Cortana ou quand on ordonne à Alexa de jouer une chanson, non ?
F.L. : Siri et Cortana ne sont que des interfaces vers des moteurs de recherche et ne comprennent rien à rien... Comme Alexa, les robots de compagnie Nao et Pepper, et toutes nos machines parlantes, elles fonctionnent par mots-clés et n’ont pas accès au sens des phrases, c'est-à-dire à la sémantique.

C’est vraiment là que le bât blesse en traitement automatique des languesFermerDiscipline qui a pour but de doter les machines du langage, que ce soit pour traduire, résumer ou dialoguer de manière fluide avec une intelligence artificielle. Elle consiste notamment à modéliser le langage en représentations abstraites (de type mathématiques). Elle associe des linguistes et des informaticiens. (TAL)... Notamment parce que pour interpréter correctement un mot en fonction de ses voisins et des autres phrases, et éviter les ambiguïtés de langageFermerPar exemple, « la pièce est dans le porte-monnaie » et « le porte-monnaie est dans la pièce » contiennent les mêmes mots, avec les mêmes relations syntaxiques, mais le sens de « pièce » y est différent : dans le premier cas, il s’agit d’une pièce de monnaie, et dans le second, d’un espace dans un appartement., un système parlant doit aussi utiliser ce qu’il « sait » de notre monde, via une ontologieFermerEn intelligence artificielle, il s’agit de sommes d’informations et de concepts capables de décrire toute chose. Certaines sont très avancées mais concernent des domaines très pointus, par exemple, pour décrire très précisément les avions, des sièges aux manettes de pilotage, jusqu’aux clapets qui tiennent les gobelets. Elles sont utilisées afin de trouver rapidement une information très précise dans une vaste notice technique. Une ontologie pour décrire la totalité de notre monde serait extrêmement coûteuse. qui le décrit par exemple.

Siri et Cortana ne sont que des interfaces vers des moteurs de recherche et ne comprennent rien à rien... Elles fonctionnent par mots-clés et n’ont pas accès au sens des phrases.

   

Or une ontologie décrivant la totalité de notre monde serait sans doute irréalisable…
F.L. : Exactement. Alexa et les autres s’en sortent parce que le vocabulaire et les phrases relevant du réglage du volume ou du morceau choisi sont très restreintes, et donc relativement faciles à décrire de manière exhaustive. Mais discuter de tout et de rien – même de façon documentaire et sans émotion comme Maman – est une autre paire de manches ! Nos machines n'en sont pas capables, et encore moins de manier l’ironie comme Ash et David. Le sens commun, l’ironie, les réparties, etc. sont façonnées par ce que l’on vit et ressent en interagissant avec nos congénères et avec l’environnement via nos corps. Pour qu’un robot en fasse preuve, il faudrait reproduire tout cela...
 

Et si ces machines vivaient avec nous pour apprendre de nos conversations, grâce à l'apprentissage machineFermerClasse d’algorithmes d’apprentissage automatique, à partir de données, sans production explicite de règles. Avec cette forme d’intelligence artificielle, on ne reconnaît pas un chat parce qu’« il a deux oreilles, quatre pattes, etc. » (raisonnement humain composé de règles et dicté à la machine), mais parce qu’il ressemble à grande quantité d'autres images de chats fournies à la machine pour l’« entraîner ». Au final, on ignore quelles ressemblances font tilt pour celle-ci ! C’est pourquoi on qualifie ces algorithmes de « boîte noire ». (une des approches utilisées en intelligence artificielle) ? Dans Prometheus, on voit David répéter les réparties d’extraits de films...
F.L. :
Il y a eu des prototypes qui apprenaient ainsi, tout seul, à la volée, à partir des conversations captées dans leur environnement, mais ils n’apprenaient qu’un milliardième de ce qu’on voulait ! Regardez les désastreux résultats de Tay, le chatbot de Microsoft déconnecté en 2017 après quelques heures seulement de fonctionnement pour cause de racisme et de sexisme avéré… Au lieu de laisser la machine apprendre à la volée, on fait plutôt de l’apprentissage supervisé : on lui fournit des exemples soigneusement choisis.

Ash (Ian Holm), officier scientifique du Nostromo, essayant de retirer le facehugger (alien au stade larvaire) fatalement agrippé au visage du lieutenant Kane. («Alien, le 8e passager», Ridley Scott, 1979).
Ash (Ian Holm), officier scientifique du Nostromo, essayant de retirer le facehugger (alien au stade larvaire) fatalement agrippé au visage du lieutenant Kane. («Alien, le 8e passager», Ridley Scott, 1979).

 
Ces techniques d’apprentissage à partir d’exemples, et surtout le deep learningFermerTechnique d’apprentissage machine utilisant des réseaux de neurones (fonctions mathématiques). Ceux-ci sont capables d’extraire/analyser/classer des caractéristiques abstraites des données qui leur sont présentées, sans production explicite de règle. On ignore pourquoi le système parvient au résultat, c’est une « boîte noire »., donnent justement des résultats spectaculaires depuis une poignée d’années dans le domaine de la reconnaissance d’images. Ne permettent-ils pas d’acquérir aussi le langage ?
F.L. : Oui mais une machine apprend de manière moins efficace qu’un humain. Un enfant détecte ainsi très vite les points intéressants, les régularités, les exceptions, etc. Il lui suffit de deux ou trois exemples pour les prendre en compte inconsciemment.

Il faut mille fois plus d’exemples à une machine qu'à un humain pour apprendre quelque chose qui commence à ressembler à du bon sens.

Tandis que, à la louche, il en faut mille fois plus à une machine pour apprendre quelque chose qui commence à ressembler à du bon sens et qu’elle fasse illusion à propos de n’importe quel sujet de conversation. Pour qu’une machine reconnaisse un chat, il faut lui en fournir des milliers d'exemples en indiquant que c’est un chat (elle trouvera des ressemblances entre les images, à l’échelle du pixel, mais on ignore lesquelles : ces systèmes sont des « boîtes noires », NDLR). Constituer un corpus d’exemples de conversations s’avère plus complexe...

 

Pourquoi est-il si complexe de nourrir une machine avec des exemples de conversations ?
F.L. : Parce que les milliers et milliers de phrases doivent avoir été annotés avec des informations linguistiques. Par exemple il faut indiquer la syntaxeFermerRègles, notamment de la grammaire, qui relient entre eux les mots d’une phrase. : où est le verbe, le sujet, le complément d’objet direct, etc., pour permettre à la machine d’apprendre à les identifier (de même, pour acquérir l’ironie, il faudrait pointer où elle se trouve dans des milliers et des milliers de conversations...). On dispose de vingt ans de ces annotations réalisées à la main et aujourd’hui on peut même les générer avec des systèmes automatiques. Mais pour la sémantique, c’est toujours l’humain qui s’y colle. Il doit préciser le sens adéquat dans le cas d’une polysémieFermerFait d’avoir plusieurs sens pour un même mot. Les machines peinent par exemple avec les mots très usités comme « petit » (petit de taille, petit bourgeois, petit caractère, etc.) ou « jeu » (jeu de clés, jeu vidéo, etc.). Il faut leur indiquer toutes ces nuances de sens., la bonne interprétation dans le cas d’une ambiguïté. Indiquer qui fait l’action (un agent) et qui la subit (un patient). Et annoter les « actes de dialogue » : s'il s’agit d’un ordre, dont on attend qu’il soit exécuté, d’une question, dont on attend une réponse, ou d’une assertion, dont on attend la prise en compte lors d’une éventuelle réaction (on en voit des exemples dans la scène d’ouverture de Alien: Covenant qui montre David interagir avec son créateur, Peter Weyland, NDLR).

  
Alors le deep learning n’est pas forcément l’approche la plus prometteuse pour faire parler des machines comme des humains...
F.L. : Pas forcément en effet. En reconnaissance d’images, le deep learning a permis une telle révolution qu’on ne reviendra sans doute pas à l’approche symboliqueFermerDémarche de l’intelligence artificielle (IA) qui utilise des règles logiques. Elle est donc fondée sur des règles dictées par l’humain programmeur, au contraire de l’apprentissage machine qui est l’autre grande approche utilisée en IA., faite de règles rédigées par un humain programmeur. Mais pour le TALFermerLe traitement automatique des langues (TAL) est une discipline qui a pour but de doter les machines du langage, que ce soit pour traduire, résumer ou dialoguer de manière fluide avec une intelligence artificielle. Elle consiste notamment à modéliser le langage en représentations abstraites (de type mathématiques). Elle associe des linguistes et des informaticiens., les progrès n’ont pas été flagrants.

Le deep learning a permis une vraie révolution en reconnaissance d’images, mais en traitement automatique des langues (TAL), les progrès n’ont pas été flagrants.

Pourquoi ? L’image n’est qu’une matrice de pixels où sont identifiées des formes qui se répètent. C’est très formel. Le langage, lui, pose de nombreux problèmes liés à l’ambiguïté, aux sous-entendus, à la polysémie, etc. Pour ces tâches qui relèvent du sens profond des phrases, l’approche symbolique se justifie encore. Une des raisons est aussi peut-être liée à la loi de Zipf. Selon elle, le mot le plus fréquent de la langue l’est deux fois plus que le deuxième plus fréquent, lui-même deux fois plus fréquent que le troisième, et ainsi de suite.

De nombreux mots sont donc très peu employés et un système d’apprentissage les rencontrera trop peu souvent dans les exemples fournis pour en apprendre correctement le « comportement ». Pour améliorer les résultats, il faudrait multiplier encore par cent ou mille la taille du corpus d’apprentissage : cela devient ingérable...

 

Prometheus bande annonce

À propos
Fermer
Année de production: 
2019

  
Quels types de sous-entendu sont complexes à enseigner à une machine ?

F.L. : Prenons la phrase « Jean a arrêté de taquiner sa femme ». Une machine comprendrait que quelqu’un appelé Jean a arrêté de taquiner sa femme et c’est tout. Tandis qu’un humain déduirait immédiatement que Jean est marié et qu’à une époque il taquinait sa femme, ce que les mots ne disent pas explicitement. Les machines sont très mauvaises, même avec le deep learning, pour identifier ce sens profond. C’est pour s’y attaquer que l’approche symbolique reste pertinente, ou plutôt qu’on envisage des systèmes hybridant les deux approches en exploitant les avantages de chacune. C’est très certainement l’avenir pour le TALFermerLe traitement automatique des langues (TAL) est une discipline qui a pour but de doter les machines du langage, que ce soit pour traduire, résumer ou dialoguer de manière fluide avec une intelligence artificielle. Elle consiste notamment à modéliser le langage en représentations abstraites (de type mathématiques). Elle associe des linguistes et des informaticiens.

  
Vraiment ? De nombreux chercheurs en intelligence artificielle nous disaient il y a deux ans qu’ils ignoraient si hybrider approche symbolique et apprentissage machine était seulement possible…

F.L. : On commence à le faire ! Par exemple, on peut travailler les textes avec des règles de linguistique (soit une approche symbolique), avant de lancer l’apprentissage dessus. Prenons la phrase : « la poussette ne tient pas dans la valise car elle est trop grande, je la mets ailleurs ». « La poussette », « elle » et « la » désignent le même objet et forment une chaîne de coréférence. Dans mon laboratoire, on cherche à apprendre aux machines à les identifier. Ce n’est pas du luxe parce que si dans l’exemple je change « grande » par « petite », « elle » n’est plus la poussette mais la valise ! Les deux phrases, avec cette variante, forment un schéma de WinogradFermerGroupe de phrases qui ne diffèrent que d’un seul mot, apparemment anodin, mais ont des sens très différents. Par exemple, « l’alien ne passe pas dans le conduit d’aération car il est trop grand » et « l’alien ne passe pas dans le conduit d’aération car il est trop petit ». La résolution de ce test fait notamment appel à des connaissances lexicales (ce qu’est un alien, un conduit d'aération) mais aussi à des connaissances pragmatiques (comme les tailles relatives d’un alien « typique » et d’un conduit d’aération classique). Pour résoudre tous les schémas de Vinograd, il faudrait modéliser le fonctionnement complet de notre monde physique ! que les meilleures machines parlantes ne résolvent que dans 60 % des cas (ce qui est à peine mieux qu’en tirant la solution à pile ou face...)

On dit « il pleut », « il y a du vent », etc. mais ces « il » ne désignent en aucun cas des objets ou des personnes. Il faut les exclure des textes qui nourrissent l’apprentissage machine.

On nourrit donc nos systèmes avec des milliers d’exemples où les « elle », « la », etc. ont été annotés. Et on espère qu’ils sauront ensuite identifier les chaînes de coréférence de tout texte. Problème : on dit aussi « il pleut », « il y a du vent », etc. Tous ces « il » ne désignent en aucun cas des objets ou des personnes et ne doivent pas être identifiés par la machine comme appartenant à des chaînes de coréférence... Pour les exclure, un système à base de règles listant ces verbes particuliers est facile à réaliser. On impose ainsi un filtrage sur le texte avant de lancer l’apprentissage.

Mais les deux méthodes ne sont pas réellement mélangées. Il n’y a pas d’autre façon d’hybrider plus en «  profondeur » ?
F.L. : Il y en a une. Cela consiste à d’abord lancer l’apprentissage sur le texte puis d’analyser les erreurs commises pour en identifier les causes. On essaie ensuite de les corriger en « forçant » le système à tenir plus ou moins compte des paramètres qui nous intéressent. Injecter au système un dictionnaire complet des synonymes peut ainsi forcer le système de manière indirecte à tenir compte de ces connaissances linguistiques déjà formalisées sous forme de règles. Le modèle idéal serait sans doute de laisser faire l’apprentissage machine pour les phénomènes les plus fréquents et de le renvoyer vers l’approche symbolique pour les phénomènes plus rares dont on rédige les règles.

 

Call (Winona Ryder), androïde le plus évolué de la saga, est si pétrie d’humanité qu’elle transcende l’humain, vil et monstrueux dans «Alien, la résurrection» (Jean-Pierre Jeunet, 1997).
Call (Winona Ryder), androïde le plus évolué de la saga, est si pétrie d’humanité qu’elle transcende l’humain, vil et monstrueux dans «Alien, la résurrection» (Jean-Pierre Jeunet, 1997).

  
Projetons-nous dans environ 70 ans, ce qui nous amène à 2093, date où débute l’action de Prometheus, préquel de Alien, le 8e passager.  Vous pensez qu’alors un androïde saura parler comme David ?
F.L. : Je n’en sais absolument rien ! Les progrès fulgurants du deep learning, au jeu de go et en vision artificielle, ont surpris tout le monde en 2015, alors comment prévoir ? Dans les années à venir, il y aura de plus en plus de recherche concernant la sémantique, sur la désambiguisation, la gestion de la polysémie, etc. On en a encore au moins pour dix ans avant d’obtenir un système assez performant pour remplacer les rudimentaires systèmes actuels fonctionnants par mots-clés et justifier son intégration sur des robots de compagnie par exemple. C’est tout ce que je peux dire...

    

L’image des scientifiques dans la saga Alien est cauchemardesque... Dans Alien, la résurrection, ils ont cloné Ripley après son suicide et utilisent des humains, achetés comme « matériel médical », pour y implanter des xénomorphes. Sans parler des archéologues mystiques de Prometheus...
F.L. : Vous oubliez de citer David qui a vraiment tout du savant fou ! Créé par les humains, l’androïde se mêle de « créer » à son tour, en testant différents types d’incubation pour les aliens, de manière aléatoire et sans protocole de recherche (ne parlons même pas d’éthique...) Alien est une sorte d’anti- « 2001, L’Odyssée de l’espace » (Stanley Kubrick, 1968), film qui montrait des scientifiques plus réalistes, voir si sérieux qu’ils se comportent presque comme des robots.

Quand il a tourné Alien, Ridley Scott avait sans doute déjà en tête les replicants, androïdes de Blade Runner qu’il réalisera trois ans plus tard.

En tant que chercheur, je préfère la vision de Kubrick, car elle permet de dire plus de choses sur la recherche (celle de l’époque du moins), sur la faisabilité d’un voyage dans l’espace ou de la mise au point d’une intelligence artificielle. Mais Alien est intéressant pour d’autres aspects, comme montrer ce qui peut se passer d’explosif entre six ou sept personnes enfermées dans un vaisseau spatial !

Le plus intéressant dans Alien, le 8e passager, et qui préfigure ce qui sera le sujet principal du film suivant de Ridley Scott, Blade Runner, à peine trois ans plus tard, c’est le fait qu’une intelligence artificielle (Ash) arrive à se faire passer pour un humain. Ridley Scott avait sans doute déjà en tête les replicantsFermerAndroïdes ultra-perfectionnés du film Blade Runner (Ridley Scott, 1982), inspiré du roman Les Androïdes rêvent-ils de moutons électriques ? (Philip K. Dick, 1966). Dans ces œuvres, pour distinguer les replicants des êtres humains, il faut les soumettre au test de Voight-Kampff qui mesure le potentiel d’empathie. Ash (Alien, le 8e passager) et David  (Prometheus, Alien: covenant) auraient sans doute des difficultés à le réussir. Mais ce serait probablement une formalité pour Call (Alien, la résurrection). quand il a tourné Alien. Au final, la figure centrale de la saga, la plus ambiguë, la plus complexe, et sans doute aussi la plus effrayante, n’est peut-être pas le monstre xénomorphe mais bien l’androïde... ♦

  
À Lire
L’Art et la science dans Alien, Frédéric Landragin, Roland Lehoucq, Christopher Robinson, Jean-Sébastien Steyer, éditions la ville brûle, à paraître le 6 septembre 2019.
 
 
Ciné-débats
Avec les auteurs du livre « L’Art et la science dans Alien » :
Au Méliès, à Montreuil, le 9 septembre à 20 heures.
Au MK2 bibliothèque, à Paris, le 22 septembre à 11 heures.

Notes
  • 1. Linguiste, spécialiste en traitement automatique des langues naturelles et dialogue entre humain et machine. Il est directeur de recherche au CNRS au sein du laboratoire Langues, Textes, Traitements informatiques, Cognition (CNRS/ École normale supérieure /Université Paris-3 Sorbonne nouvelle).
Aller plus loin

Coulisses

« Que les êtres humains fabriquent des robots à leur image (comme Ash ou Walter), qui eux-mêmes fabriquent des robots intelligents (de deuxième génération, comme Call) ou veulent créer la vie (comme s’y essaie David...), renvoie comme souvent en science-fiction au mythe de Prométhée. Cette thématique est riche, non pour sa plausibilité scientifique qui est nulle à mon sens, mais parce qu’elle nous permet de réfléchir sur les limites de l’intelligence artificielle et de l’éthique dans le domaine de la science en général. » (Frédéric Landragin).

Auteur

Charline Zeitoun

Journaliste scientifique, autrice jeunesse et directrice de collection (une vingtaine de livres publiés chez Fleurus, Mango et Millepages).

Formation initiale : DEA de mécanique des fluides + diplômes en journalisme à Paris 7 et au CFPJ.
Plus récemment : des masterclass et des stages en écriture de scénario.
 

Commentaires

1 commentaire

Les bébés apprennent le langage (maternel) comportementalement. C'est-à-dire qu'ils utilisent tous les systèmes de perceptions qu'ils possèdent pour donner un sens à leur univers mental. Le sens des mots doit probablement se mettre en place par corrélation avec tous les systèmes de perception. Ce n'est pas ainsi que semble apprendre les IA actuelles. Cela semble être uniquement basé sur des corrélations de mots d'où la difficulté. Un dictionnaire de mots ne donne que la définition ce qui est un cercle vicieux. Une encyclopédie tente de faire des descriptions avec de nombreuses images. Elle tente de simuler notre univers mental. Elle est plus proche de notre fonctionnement, mais il lui manque les autres sens. Une IA capable de parler comme nous ne devrait-elle pas pouvoir utiliser tous ses sens afin de les corréler et d'y associer les mots? Autre chose, une IA fonctionne jour et nuit, et peut fonctionner indéfiniment (1000 ans ou plus), et toutes les IA du monde peuvent s'enrichir comme si elles n'étaient qu'une entité, ce n'est pas le cas d'un être humain.
Pour laisser votre avis sur cet article
Connectez-vous, rejoignez la communauté
du journal CNRS