Fermer

Ce formulaire concerne l’abonnement aux articles quotidiens de Superception. Vous pouvez, si vous le préférez, vous abonner à la newsletter hebdo du site. Merci.

Fermer

Communication.Management.Marketing

Toute vérité n'est que perception

Tay : une intelligence artificielle pas assez humaine

Microsoft a dû désactiver, moins de 24 heures après sa création, le compte Twitter qu’il faisait animer par une solution d’intelligence artificielle.

Cette expérimentation de “compréhension conversationnelle” était pourtant prometteuse. L’objectif était que Tay devienne de plus en plus intelligent en échangeant sur Twitter avec des internautes.

En réalité, Tay devint toujours plus humain, ce qui n’est pas toujours synonyme d’intelligence. En effet, des internautes l’inondèrent de tweets misogynes, racistes et dégradants en tout genre.

Au lieu de se nourrir du bon sens des internautes, comme c’était son dessein, Tay apprit donc leurs pires travers et les régurgita sur Twitter1. Après qu’il eut vanté les mérites d’Hitler, Microsoft le débrancha.

Il serait facile de blâmer Microsoft pour cet échec2 mais il me semble que c’est surtout la stupidité de la foule numérique qui est en cause. La déconnexion de Tay ne signifie pas l’échec de l’intelligence artificielle mais celui de l’intelligence humaine ou de ce qui en tient lieu.

(CC) Microsoft & Twitter

(CC) Microsoft & Twitter

Au-delà des questions qu’elle pose sur la liberté d’expression, la courte existence de Tay constitue un rappel du dilemme associé au développement de l’intelligence artificielle.

Un logiciel conçu par Google défit récemment le champion du monde de jeu de go, une discipline beaucoup plus complexe que les échecs. Cette prouesse démontra une nouvelle fois le potentiel de l’intelligence artificielle. Mais, comme d’autres avancées antérieures, elle mit en exergue le quotient intellectuel, et non le quotient émotionnel, des logiciels concernés. A contrario, Tay signale l’incapacité de l’intelligence artificielle à être performante, c’est-à-dire essentiellement mature, dans le domaine émotionnel.

L’être humain combine QI et QE pour penser et agir. Plus les systèmes d’intelligence artificielle auront cette faculté, plus ils seront performants et, partant, dangereux aux yeux de Bill Gates, Stephen Hawking, Elon Musk et d’autres.

Dans un certain sens, il faut donc peut-être se réjouir de l’incapacité de Tay à dépasser la bêtise de ses interlocuteurs.

Antonio Damasio, neurologue à l’Université de Californie du Sud (Los Angeles), a écrit que

Nous ne sommes pas des machines pensantes qui ressentent des émotions, nous sommes des machines émotionnelles qui pensent”.

A ce stade, Tay et les autres solutions d’intelligence artificielle ne sont même pas des “machines pensantes qui ressentent des émotions”.

1 Plusieurs des tweets choquants de Tay furent d’ailleurs publiés en réponse à des tweets qui lui demandaient : “Tay, répète après moi“. Tay s’exécuta pour son plus grand malheur. Mais d’autres de ses tweets scandaleux ne furent pas provoqués par ce type de subterfuges.

2 Le seul reproche qu’on puisse lui faire est de ne pas avoir anticipé toutes les attaques qui pouvaient être lancées contre Tay, un regret que le Groupe lui-même a exprimé.

Ajouter un commentaire

Votre adresse email ne sera pas publiée

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Remonter

Logo créé par HaGE via Crowdspring.com

Crédits photos carrousel : I Timmy, jbuhler, Jacynthroode, ktsimage, lastbeats, nu_andrei, United States Library of Congress.

Crédits icônes : Entypo