Analyse / Intelligence artificielle: les non-dits
On nous annonce une révolution avec l’arrivée invasive et fulgurante de l’IA dans nos vies, nos modes d’apprentissage et de production et, surtout, la mise à disposition de l’information immédiate et «gratuite» sans effort, objet central ici. Or nous ne mesurons aucunement ce que cela signifie vraiment.
Un apophtegme dit «tout ce que l’on sait on finit par le rencontrer». Or il est très probable que nous n’ayons jamais su ni même imaginé ce qui se dessine devant nous avec le développement de l’intelligence artificielle. Il ne s’agit pas d’une révolution mais de ce qu’en mathématique on appelle une «catastrophe», une forme de transition de phase radicale. C’est-à-dire le passage d’un état à un nouvel état sans que le deuxième n’hérite quoi que ce soit du premier.
Triptyque de la problématique
Considérant que nous sommes issus d’une longue histoire qui vient de la nuit des temps. Une évolution où la quête vitale de l’Homme consistait en deux uniques objets: l’énergie pour son homéostasie et l’information pour survivre dans une nature hostile.
L’acquisition de l’information présupposait le parcours d’un chemin, une pratique de mentorat, une observation, une expérience, un apprentissage, des échecs, des essais et erreurs, et un sens critique. La paléoanthropologie nous apprend que le chemin parcouru pour accéder à l’information est aussi important que l’information elle-même. Que veut dire une information qui vous parvient sans ce qui précède? De quoi est le nom de cette «économie de l’attention et de l’engagement». Une production d’informations qui inonde l’homme, l’hypnotise, peut-être le rend colonisable voire «puçable» nous dit-on.
Et donc, avons-nous consulté des paléoanthropologues?
Considérant que toute utilisation d’une technologie a une rétroaction sur l’utilisateur et qu’ici, il s’agit d’une mitraille d’impacts sur les mécanismes d’apprentissage, la plasticité du cerveau, les structures cognitives avec une réduction de l’engagement et de la simulation mentale. Et que veut dire l’utilisation grandissante d’une technologie à laquelle la majeure partie des pratiquants n’imagine pas un traitre photon de ses sous- jacents. Consentons-nous à la transition de notre «puissance d’être» ou «Conatus», à la faillite de recevoir passivement. Une mécanique de la pulsion couplée à une «intoxication par la hâte» de recevoir au visage un flot d’informations sans acquisition, sans connaissance avec ses exigences formelles.
Et donc, a-t-on consulté des psychologues, des neurologues?
Considérant que l’humanité (antérieure à l’apparition de Google, n’en déplaise aux illuminés) a toujours été confrontée à des problèmes auxquels elle a trouvé des solutions. Cependant, pour veiller à rester dans la Culture, les mythes, les récits cosmogoniques; les philosophes donnent un sens aux solutions trouvées. Un exercice salutaire et monographique expurgeant le faux et saisissant le vrai; répudiant le mauvais et s’appropriant le bon. Qu’en est-il dans ce qui nous arrive avec une abondance inouïe d’informations passées par le rouet de la «vérité relative», voire d’hallucinations débitées par des algorithmes. Dans Apocalypse cognitive, Gérald Bronner pense que la concurrence générale des récits (ici les flots d’informations générés par l’IA) allait être favorable au vrai. Est-ce le cas ici?
Et donc, a-t-on consulté des philosophes?
A ces trois questions, un observateur honnête répondrait non.
Le progrès c’est aussi la croissance de la connaissance de chacun par une équipartition citoyenne et humaniste. Or il s’agirait là de conférer la production de l’information à une partie infime de l’humanité (les ingénieurs et leurs algorithmes) pour inonder l’autre, consommatrice, qui confond usage et maîtrise, information et connaissance. Et on entend des pontes avancer avec audace «vous appuyez sur un bouton et l’IA vous donne tout» (Sic). Dans Homo cretinus, Olivier Postel-Vinay parle de la «bêtise intelligente» des sachants.
On nous annonce l’homme «augmenté» par son métissage avec la machine. Un métissage où on gagnerait peut-être une demi-machine tout en perdant sans doute les deux moitiés de l’homme. Une forme d’hubris démocratique généralisé. Peter Drucker avait cette expression: «la culture mange la stratégie au petit-déjeuner». Or on ne voit ni stratégie ni souci de préserver notre Culture face à la généralisation de l’IA. Une IA qui certainement balaiera notre épistémè construite au fil de millénaires.
Si le but est d’augmenter la performance de l’homme, le neurobiologiste Jean-Pierre Changeux conseille de coupler la joie à l’action, et la performance arrive. Or nous sommes déprimés et quémandons la performance au virtuel et à l’IA.
Paul Valéry écrivait que «l’homme, en général, sait ce qu’il fait mais ignore ce que fait ce qu’il fait». Une distanciation fautive avec les conséquences néfastes dont nous pressentons le danger et détournons le regard. En sus d’une lâcheté, une forme de «conscience malheureuse» ou «d’observation inutile».
VOS RÉACTIONS SUR LE SUJET
0 Commentaire