PROSPECTIVE-FICTION

ASSEMBLÉE PAS SAGE

L’hémicycle de l’Assemblée nationale est bondé. L’ambiance est houleuse. Les députés huent, vocifèrent, se lèvent… Sur le perchoir, le président frappe avec son marteau pour appeler au silence.

¬— Nous n’accepterons jamais qu’une machine mette en doute notre humanité, hurle un député qui est immédiatement applaudi.

— Croire que les députés peuvent être des édulcorants d’humains est une insulte à notre fonction.

— Cette introspection est un viol de notre intimité. Nous nous battrons pour conserver notre droit à l’immunité parlementaire.

— Nous sommes des hommes

— Et des femmes

— Nous n’avons pas à le prouver, hurlent en chœur une dizaine de députés.

Ce déchaînement est à mettre sur le compte d’un nouveau règlement intérieur de l’Assemblée nationale. Depuis quelques années, les députés se voient interdire le droit de vote quand ils sont absents à trois séances. Pour éviter cette pénalité, ils envoient leurs clones-robots à leur place. Le président en ayant assez de discuter devant une armée de robots aussi attentifs que silencieux a décidé de leur interdire l’accès à l’hémicycle.

Comme ces clones-robots ressemblent vraiment à leurs propriétaires, il a décidé de leur faire passer le test de Turing. Ils doivent répondre aux questions des appariteurs qui vont décider s’ils sont humains ou pas.

— Vous tenez un marteau dans une main et une plume dans une autre. Vous ouvrez les deux mains. Lequel tombera en premier sur le sol ?… Un tigre est sur la Lune. Il vous regarde. Combien temps lui faut-il pour vous attraper ?… Hier soir, j’ai une conversation intéressante avec une grenouille. Que m’a-t-elle dit ?… Si je tourne dans le sens des aiguilles d’une montre le bouton de volume de ma chaîne hi-fi, que se passe-t-il ?… Nous n’allons pas nous abaisser à répondre à des questions stupides, hurle un député.

— Halte au test ! Les députés ne sont pas des animaux de laboratoire, renchérit un autre.

Dans ce brouhaha, une voix de baryton couvre toutes les autres et impose le silence.
— Mesdames, Messieurs les Députés, boutons les robots en dehors de l’hémicycle en acceptant ce règlement.

L’homme est applaudi par une trentaine de députés. Les autres les regardent. Ils n’en reviennent pas, car les applaudissements proviennent des transhumanistes. Eux, les adeptes de la technologisation de l’humain cautionnent ce règlement clairement anti-robots.

Leur porte-parole sourit. L’effet de surprise a été total. Grâce aux Chinois qui leur ont fabriqué des clones-robots ayant passé le test de Turing, ils pourront contourner ce stupide règlement.

LE FUTUR SE DISCUTE

Test de Turing

Turing est un mathématicien. En octo¬bre 1950, il publie un article dans lequel il imagine une méthode pour évaluer l’intelligence d’une machine. Ce test consiste à la faire discuter pendant 5 minutes avec un être humain. Si 30 % des juges ne décèlent pas qu’ils échangent avec un ordinateur, la machine a réussi le test.

Ce test ne mesure pas la performance d’une machine, mais sa capacité à se faire passer pour un être humain.

Ce test n’avait qu’une portée théorique chez Alan Turing. Tout l’intérêt était dans la notion d’imitation de l’être humain, jusque dans son genre.
Jean-Gabriel Ganascia

Réussir le test de Turing

Alan Turing a prédit que, en l’an 2000, les ordinateurs auraient 128 Mo de mémoire et seraient capables de réussir le test de Turing.

« Les machines peuvent-elles penser ? Si ce n’est pas le cas aujourd’hui, à la fin du siècle, leur usage des mots et leur niveau général de culture auront tellement évolué que l’on pourra parler de machines pensantes sans crainte d’être contredit. »
Alan Turing

Fabriquer une machine qui réussit le test de Turing est toujours un défi pour les chercheurs. Nombreux sont ceux qui tentent de le relever.

En 1965, Joseph Weizenbaum du Massachusetts Institute of Technology a développé Eliza. Ce bot a réussi à tromper les humains en utilisant un artifice. Eliza encourageait les utilisateurs à parler en extrayant des mots de leurs propos et en leur renvoyant sous forme de questions.
Exemple : « Je suis malheureux » ; « Pensez-vous qu’être venu ici vous rendra moins malheureux ? » En cas de doute, le logiciel disposait de phrases génériques comme « Veuillez continuer ». Des universitaires virent en Eliza la « solution au problème de la compréhension du langage par l’ordinateur ».

Un autre programme du nom de « Parry » s’est fait passer pour un schizo paranoïaque ! Il tournait les questions qu’on lui posait en obsessions névrotiques programmées.

Hugh Loebner a lancé le 8 novembre 1991, au Boston Computer Museum un concours « le prix Loebner » qui rend le test plus formel. Les juges savent que certains de leurs interlocuteurs sont des machines. Les programmateurs d’agents conversationnels développent des stratégies similaires à celles d’Eliza et de Parry. En 1997, un juge s’est laissé entraîner dans une conversation politique avec le bot Catherine. Elle était programmée pour parler des Clinton et du scandale du Whitewater.

En 2014, les juges sont trompés par l’IA Eugene Goostman. La victoire a été contestée, car l’IA simulait un enfant ukrainien de 13 s’exprimant en anglais. Les adversaires ont considéré que cela avait poussé les juges à tolérer diverses erreurs de langage et nombreux contresens.

D’autres programmes comme Cleverbot (2011, Inde), ont adopté une approche différente en analysant statistiquement d’énormes bases de données de vraies conversations afin de déterminer les meilleures réponses. Si les réponses de Cleverbot paraissent humaines, le manque de cohérence et l’incapacité à traiter de sujets nouveaux trahissent le bot.

En 2018, l’assistant de Google boosté à l’intelligence artificielle a effectué une réservation par téléphone. Les récipiendaires de l’appel ne se sont pas rendu compte qu’ils échangeaient avec une machine.
Cette expérience montre la capacité des machines à parler comme des humains. Elles peuvent, dans le meilleur des cas, effectuer des échanges courts sur un thème bien cadré.

Pourquoi le test de Turing est-il si difficile pour une machine ?

Les ordinateurs sont capables de piloter des fusées vers l’espace, effectuer des opérations chirurgicales extrêmement pointues et résoudre des équations complexes. On peut donc s’étonner qu’ils ne soient pas capables d’avoir des conversations basiques.

Le langage humain est un processus éminemment complexe.
Une phrase simple comme : « J’ai sorti le jus d’orange du frigo et je lui ai donné, mais j’ai oublié de vérifier la date » réclame une richesse de connaissances sous-jacentes et de l’intuition pour être décryptée.

À la question : « Le trophée ne rentrait pas dans le sac parce qu’il était trop grand. Qu’est-ce qui était trop grand ? C’est évident, c’est “le trophée”. Deuxième phrase : “Le trophée ne rentrait pas dans le sac parce qu’il était trop petit. Qu’est-ce qui était trop petit ?” C’est bien entendu “le sac”.
Alors que ces interrogations sont simples pour un humain, aucune machine n’a encore ce niveau de subtilité.

Même si les programmes récents semblent intelligents lors d’un court échange, ils sont dans l’incapacité d’improviser sur des sujets non programmés.

Des tests inversés

Aujourd’hui des start-up surfent sur la vague de l’intelligence artificielle en faisant passer de vraies personnes pour des robots. C’est moins cher et plus facile de faire en sorte que les humains se comportent comme des machines que des machines comme les humains.

Demain, on aura peut-être des tests pour différencier les humains robotisés des robots humanisés !

ILS EN PARLENT