L’intelligence artificielle s’est imposée comme un outil incontournable dans notre quotidien. Pourtant, un scandale médiatique aux États-Unis vient nous rappeler ses limites, particulièrement en matière de recherche d’information.
0 𝕏
© Primakov / Shutterstock.com 𝕏
Peut-on faire une confiance aveugle aux intelligences artificielles ? En matière de recherche d’information, il semblerait que non. C’est en tout cas la leçon que l’on peut tirer suite au scandale médiatique survenu aux Etats-Unis il y a quelques jours.
Tout a commencé sur CNN qui tentait d’énoncer des précédents historiques de grâces présidentielles familiales (en référence à Joe Biden qui a gracié son fils alors qu’il avait assuré qu’il ne le ferait jamais). Ana Navarro-Cardenas, figure bien connue de la chaîne, a évoqué avec assurance la grâce accordée par le président Woodrow Wilson à son prétendu beau-frère, un certain Hunter deButts. Cette information, reprise par plusieurs médias, s’est rapidement propagée sur les réseaux sociaux.
Confrontée à des questions sur ses sources, la commentatrice a répondu sans détour : “Prenez-vous en à ChatGPT”. Une réponse qui a déclenché une enquête approfondie, révélant non seulement que Hunter deButts n’avait jamais existé, mais aussi que d’autres “faits historiques” largement relayés étaient tout aussi fictifs. Parmi eux, la prétendue grâce de George H.W. Bush à son fils Neil, ou encore celle de Jimmy Carter à son frère Billy.
Cette affaire n’est que la partie émergée de l’iceberg. Les recherches montrent que les outils d’IA générative comme ChatGPT commettent des erreurs dans plus de trois quarts des cas lorsqu’il s’agit de citer des sources précises. Un constat alarmant quand on sait que ces outils sont de plus en plus utilisés par les journalistes, chercheurs et étudiants.
200% Deposit Bonus up to €3,000 180% First Deposit Bonus up to $20,000Le cas de Jeff Hancock, fondateur du Stanford Social Media Lab et expert reconnu en désinformation, est particulièrement révélateur. Lui-même s’est fait piéger en utilisant GPT-4 pour générer une liste de références bibliographiques, se retrouvant avec des citations inexistantes dans un document officiel. Si même les experts peuvent tomber dans le piège, qu’en est-il du grand public ?
La différence fondamentale entre les moteurs de recherche traditionnels et les “moteurs de réponse” basés sur l’IA réside dans leur approche. Google Search classique renvoie vers des sources primaires que l’utilisateur peut consulter et vérifier. En revanche, les IA génératives produisent des réponses qui semblent cohérentes mais sont souvent impossibles à vérifier.
Cette nouvelle réalité pose un problème majeur : la facilité d’utilisation de ces outils encourage la paresse intellectuelle. Pourquoi passer du temps à vérifier des sources quand une IA nous donne une réponse immédiate et apparemment crédible ? Cette tendance contribue à la dégradation générale de notre environnement informationnel, déjà mis à mal par la désinformation sur les réseaux sociaux.
Les conséquences se font sentir bien au-delà du monde académique. Des erreurs apparemment anodines, comme l’IA de Google affirmant que les renards mâles sont monogames, aux graves méprises sur des événements d’actualité, c’est toute notre capacité à distinguer le vrai du faux qui est menacée. Alors en attendant que ChatGPT s’améliore, mieux vaut se fier à ce bon vieux Google et à votre capacité à croiser les informations.
[ ]
© DenPhotos/Shutterstock.com In its early days, WhatsApp was an extremely simple application with a single…
L’année prochaine, Apple débuterait la production de ses puces M5. Elles pourraient apporter des améliorations…
Avant la rencontre, les supporters israéliens s’étaient regroupés dans la ville. ANP - JEROEN JUMELET…
The football match between France and Israel, scheduled for November 14 at the Stade de…
Outgoing President Joe Biden and President-elect Donald Trump sent completely different Christmas messages on Wednesday,…
Every day, Midi Libre takes stock of the situation in Ukraine. This Thursday, December 26,…