PROSPECTIVE-FICTION

Les chats à la casserole

Et si les robots passaient tous les chats à la casserole !

Tout a commencé, il y a un mois. À cause d’un bug, Martin est bloqué dans sa voiture autonome. C’est l’heure du repas. Les enfants crient famine. Il demande à Robert, son robot ménager, de préparer leur repas.

Robert, toujours très obéissant, accepte. Quand Martin arrive, c’est le drame : Robert a cuisiné le chat.

Comme le réfrigérateur était vide, il a cherché une solution pour nourrir les enfants. Il a vu l’animal. Consciencieux, il a examiné son apport calorique et ses qualités nutritionnelles. L’analyse se révélant positive, il l’a fait passer à la casserole.

Martin ne peut en vouloir à un robot qui n’a aucune conscience. Mais, secoué par l’affaire, il raconte sa mésaventure sur les réseaux sociaux. Elle fait le buzz. Des millions de messages, de photos parlent de ce robot qui cuisine le chat.

Comme toutes les IA sont branchées sur les réseaux sociaux, elles intègrent dans leurs bases de données l’information brute : « Un robot cuisine le chat ». Depuis, dans les cuisines, c’est la panique. Dès qu’un robot  voit un chat, il tente de l’attraper pour le cuisiner !

LE FUTUR SE DISCUTE

Les bobos du robot

Guidé par une IA sophistiquée, Robert, le robot a effectué le travail pour lequel il a été programmé. Il devait nourrir les enfants, il l’a fait. Les IA n’improvisent pas. Elles savent juste faire la chose pour laquelle elles sont programmées.

Les IA n’ont pas de conscience. Elles ne savent pas ce qui est bien, ce qui est mal. N’ayant pas intégré les valeurs humaines, le robot ignore donc que la valeur sentimentale du chat l’emporte sur sa valeur nutritionnelle.

Les IA ne sont pas intelligentes. Elles ont une intelligence mathématique, basée sur des algorithmes rigoureux qui ne laissent pas de place à l’improvisation. Cette intelligence diffère de l’intelligence humaine, biologique et duale qui dépend de la raison et des émotions.

 » Si l’on demande à une IA de fabriquer des trombones sans spécifier la quantité, elle en fabriquera ad vitam aeternam. Pour atteindre son objectif, elle pourra éradiquer les êtres humains s’ils se mettent en travers de son chemin ou représentent une source d’atomes pour les fabriquer.

Nick Bostrom, philosophe

La cuisine des données

C’est en toute logique les robots, congénères de Robert, se sont mis à cuisiner les chats. Ils ont été massivement nourris par des données qui leur disaient : « Un robot cuisine le chat ».

Toutes les intelligences artificielles dépendent des données qui les nourrissent. Si les données sont de mauvaise qualité, biaisées, elles ont un fonctionnement erratique.

Pour aider à comprendre ce principe, des chercheurs du MIT ont mis au point Norman, la première intelligence artificielle psychopathe. Ils l’ont nourrie avec des images du dark Web. Résultat, alors qu’une l’IA standard voit sur des taches d’encre « un vase avec des fleurs », Norman distingue « un homme en train de se faire abattre ».

Nourrir une intelligence artificielle avec des bonnes données n’est pas pour autant une affaire des plus simples. L’histoire de Tay en témoigne.

Tay est un chatbot pour Twitter développé par Microsoft. Le principe était qu’il apprenne par les interactions avec les internautes. Il est passé en quelques heures d’un tweet disant : « les humains sont super cools » à « Hitler avait raison, je déteste les juifs. » En résumé, il a repris des propos racistes et négationnistes que des internautes s’amusaient à lui faire répéter.

Pour éviter une telle dérive, on pourrait penser que Microsoft aurait dû « nourrir » Tay d’une liste de mots et de sujets interdits. Ce gavage positif poserait alors un problème de définition de ce qui est interdit : « Cela signifie que le créateur de l’agent conversationnel s’arroge le droit a priori de décider de ce qui est moralement acceptable », explique Jean-Gabriel Ganascia.

Même pas peur de la connerie artificielle, mais…

Lors de couac des intelligences artificielles, le problème est la plupart du temps humain et non technique. L’algorithme effectue correctement des opérations que l’homme a mal programmé.

De ce fait, on a encore aujourd’hui plus à craindre de la connerie humaine qui est infinie que de la bêtise artificielle. Mais cette bêtise artificielle sera maitrisée si on regarde la machine avec une distance critique et non pas comme un remède miracle.

Intelligences contre intelligences

Ateliers de co-construction du guide IA

Guide sur l'Intelligence artificielle