keyboard_arrow_left Retour
LU AILLEURS / Technologie

Humains? Machines? Sur les réseaux sociaux, on ne sait plus

E st-ce que des robots sur les réseaux sociaux peuvent influencer les débats politiques? C’est la question qui se pose ces jours-ci en Allemagne. Alors qu’une récente analyse montrait l’ampleur des interventions en langue allemande générées sur Twitter par ces «social bots» lors du débat sur le pacte des migrations, la question de l’identification de ces influenceurs et les conclusions de l’étude divise.

Il faut identifier les «bots» sur les réseaux sociaux! s’exclament le SPD (Sozialdemokratische Partei Deutschlands), la CDU (Christlich Demokratische Union), le CSU (Christlich-Soziale Union) et les Verts allemands. Cette demande de la grande coalition concernant ces «social bots»  – des logiciels qui se font passer pour des humains sur les réseaux sociaux – intervient dans un récent débat houleux: celui du pacte sur les migrations. L’entreprise «Botswatch» publiait en effet une étude qui démontrait que 28% des tweets en allemand concernant le pacte de l’ONU étaient générés par des robots. Ces discussions influencées par des machines auraient mené à une manipulation des opinions. 

Des études, des analyses et un débat politique à ce sujet doivent donc absolument avoir lieu. Sauf que, ce rapport de «Botswatch» pose un certain nombre de questions. Premièrement, l’honnêteté scientifique (pour ne pas dire «neutralité») de cette étude n’est pas garantie: selon l’article Haben Bots die Debatte um den Migrationspakt einseitig beeinflusst? de la NZZ, bon nombre des membres dirigeants de l’entreprise «Botswatch» sont affiliés au parti d’Angela Merkel, qui, on le sait, s’est beaucoup battu pour ce pacte sur les migrations.

Deuxièmement, la méthodologie reste opaque et pour ce que l’on sait du procédé d’identification de ces «bots», elle est questionnable: les auteurs de l’étude ont observé 800'000 tweets générés entre le 24 novembre et le 2 décembre et ont classifié les comptes comme «bots» à partir du moment où ils généraient plus de 50 tweets par jour. Pourtant, selon Florian Gallwitz, professeur d’informatique des médias à la haute école technique de Nuremberg cité par la NZZ, plusieurs raisons peuvent mener à produire autant d’interactions: d’abord, un débat qui échauffe sur les réseaux sociaux peut pousser un humain à argumenter, répondre, s’invectiver, corriger et s’énerver sur plus de 50 tweets. Ensuite, il n’est pas rare que certaines personnes utilisent Twitter comme un simple chat. Et pour finir, il arrive que certains médias d’envergure postent également plusieurs dizaines de fois par jour. Il est donc un peu rapide de classifier ces cas comme «bots», même si cette méthodologie est celle utilisée également par l’université d’Oxford, selon «Botswatch».

En dernier lieu, si la demande de régulation de ces «bots» semble une question fondamentale, elle n’en est pas moins extrêmement délicate. En l’occurrence, demander aux plateformes de Twitter, Facebook et compagnie d’assigner un signe distinctif sur toutes les interventions faites par ces robots afin de proposer une forme de transparence, comme le demande la grande coalition en Allemagne, reste une épreuve technologique.

D’ailleurs, à la question «à quoi reconnaît-on un «social bots»?», le professeur Gallwitz cité dans la NZZ répond simplement: «aucune idée». Difficile de savoir si les exploitants de Twitter eux-mêmes savent reconnaître une machine d’un humain. Espérons-le. Car même si cette étude de «Botswatch» donne des chiffres probablement trop hauts et, en conséquence, bien qu’il soit aujourd’hui encore difficile de savoir si un débat peut réellement être influencé par des robots, la crainte que cela ait pu arriver et que cela arrive (à nouveau) un jour est présente. En France, lors des présidentielles, c’était plusieurs milliers de faux comptes (générés par des humains ou des robots) qui avaient dû être supprimés. Mêmes enjeux – et probablement d’ampleur supérieure – lors des présidentielles américaines de 2016. Autre exemple: l’influence de ces réseaux sociaux lors des mobilisations des «gilets jaunes». Ce sont quelques cas qui mettent en lumière le nouveau rôle d’«acteur politique» de Twitter, Facebook et compagnie. Et il vaudrait mieux que ces plateformes se questionnent et se positionnent, sans jouer les innocentes, sur leur rôle démocratique. Avant que cela ne soit trop tard.

Bon pour la tête est une association à but non lucratif, emmenée par un comité de bénévoles composé de Sarah Dohr, Geoffrey Genest, Anna Lietti, Denis Masmejan, Patrick-Morier-Genoud (président), Jacques Pilet, Chantal Tauxe, Faridée Visinand, Ondine Yaffi (ordre alphabétique).

© 2019 - Association Bon pour la tête | une création WGR