Une étude récente menée par des chercheurs de l’École polytechnique fédérale de Lausanne (EPFL) a examiné les capacités de persuasion de GPT-4, un modèle de langage développé par OpenAI. Les résultats de l’étude, publiés récemment, indiquent que GPT-4 a surpassé les êtres humains dans le domaine de la persuasion, avec une marge de 81,7 %.
L’étude a rassemblé 820 participants pour des débats sur une variété de sujets. Ces derniers allaient de questions sensibles telles que l’admission basée sur la race dans les établissements d’enseignement supérieur à des sujets moins controversés comme l’avenir de la pièce d’un centime.
Les résultats ont montré que GPT-4 était capable de persuader de manière plus efficace que les humains, même lorsque les participants savaient qu’ils interagissaient avec une intelligence artificielle. Cette constatation soulève des questions sur l’impact potentiel des algorithmes de traitement du langage naturel sur les discussions en ligne et la formation des opinions.
L’efficacité de GPT-4 en matière de persuasion a été particulièrement renforcée par la personnalisation des arguments en fonction des caractéristiques individuelles des participants. Sans personnalisation, l’IA avait une avance de 21,3 % en matière de persuasion sur les participants. Lorsque cette personnalisation était activée, la performance de GPT-4 augmentait significativement, atteignant une marge de 81,7 %.
Cependant, il est important de noter que malgré sa capacité à persuader, environ 75 % des participants ont pu identifier la nature artificielle des arguments présentés par GPT-4. Cela souligne la nécessité d’examiner attentivement les implications éthiques et sociales de l’utilisation de ces technologies.
En effet, ces résultats soulèvent des préoccupations quant à l’utilisation potentielle de cette technologie à des fins malveillantes, notamment dans le domaine de la désinformation en ligne et de l’ingénierie sociale. Il est essentiel que les plateformes en ligne et les médias sociaux prennent des mesures pour contrer ces risques, tout en continuant à explorer les applications positives des avancées en intelligence artificielle.
Image par Gerd Altmann de Pixabay