Lu ailleurs / Un fantôme dans la machine: quand l’IA effraie ses propres concepteurs
L’intelligence artificielle est un miroir aux alouettes qui se joue de notre capacité à personnifier les choses. Même les ingénieurs de Google s’y laissent prendre. Blake Lemoine est l’un d’entre eux, et a récemment été suspendu par le géant américain après avoir déclaré que son nouveau programme de communication avec IA était «sensible». Dans le «Guardian», la professeure de linguistique Emily Bender avertit: au-delà du spectaculaire de la déclaration, c’est à nous, humains, qu’il revient de rester sur nos gardes et de réfréner nos empathies.
LaMDA (pour «language model for dialogue applications») est un projet encore en gestation chez Google, et son utilisation est très limitée. Le programme, qui semble avoir l’apparence d’une interface de messagerie classique, avec des bulles bleues et blanches de part et d’autre de l’écran, soit un «chatbot», est destiné à terme à remplacer la désormais incontournable fonction «recherche» de Google. Le géant américain de la tech s’engage toujours plus résolument dans la recherche et le développement de programmes reposant sur l’intelligence artificielle. En témoigne une démonstration de LaMDA par le PDG d’Alphabet (la maison-mère de Google), au cours de laquelle ce dernier a demandé à l’application de parler avec «la voix de Pluton» et de raconter quelques détails sur cette ex-planète.
«Si je n’avais pas su de quoi il s’agissait vraiment, c’est-à-dire ce programme informatique que nous avons récemment conçu, j’aurais pu croire que je m’adressais à un enfant de 7 ou 8 ans qui serait spécialement calé en physique.» Ce qui a piégé Blake Lemoine, c’est précisément l’apparente intelligence des réponses fournies par l’application. Car les programmes conçus pour ressembler à l’intelligence et au comportement humains abusent de notre capacité d’empathie, prévient la professeure de linguistique à l’université de Washington Emily Bender.
Le problème, développe-t-elle, c’est qu’il nous est très difficile de ne pas réagir face à un «chatbot» (un robot parlant ou écrivant des messages) comme nous le ferions face à une personne. «Il peut sembler que, lorsque nous comprenons le discours d'autrui, nous ne faisons que décoder des messages. En fait, notre capacité à comprendre les actes de communication des autres consiste essentiellement à imaginer leur point de vue, puis à déduire ce qu'ils ont l'intention de communiquer à partir des mots qu'ils ont utilisés. Ainsi, lorsque nous rencontrons un texte apparemment cohérent provenant d'une machine, nous appliquons cette même approche pour lui donner un sens: nous imaginons par réflexe qu'un esprit a produit ces mots avec une certaine intention de communication.»
Selon tout vraisemblance, avance Emily Bender, les réponses fournies par LaMDA proviennent d’une quantité énorme de texte moissonnée sur internet, sans aucun contrôle de qualité sur les données ni les sources. Cela conduit fréquemment à des «ratés» très médiatisés. LaMDA, comme d'autres applications d'intelligence artificielle auparavant, s’est ainsi rendu coupable de conseils médicaux contre-productifs et dangereux, ou de propos racistes. A l’heure actuelle, Google n’a pas fourni d’explications sur l’origine exacte des sources utilisées.
Puisque l’ambition affichée de la firme américaine est «d’organiser l'information à l’échelle mondiale», poursuit la spécialiste, nous avons tout intérêt à ne pas demeurer passifs face aux progrès fulgurants de l’intelligence artificielle. «Nous voulons plus de transparence sur le fonctionnement de ces programmes», réclame la linguiste. Nous devons prendre conscience de ce qu’est l’intelligence (et le langage) humains; et apprendre et intégrer la différence, sinon nous prenons le risque d’être trompés, de nous laisser aveugler par notre confiance et notre empathie.
En tout état de cause, l’imitation par la machine du comportement humain est une ligne rouge à ne pas franchir, selon nombre de spécialistes. Confrontés à l’inquiétante étrangeté d’une altérité artificielle, nous perdons la notion de ce qui est propre à notre nature, nous en venons à imaginer un fantôme dans la machine.
VOS RÉACTIONS SUR LE SUJET
0 Commentaire