I chatbot ogni tre risposte sono sbagliate
Oggi i chatbot AI forniscono quasi sempre una risposta. Tuttavia, la maggior parte dei sistemi presenta seri problemi di qualità. Secondo un recente studio di Newsguard, diffondono informazioni false in circa il 35% dei casi, spesso basate su fonti dubbie o formati mediatici manipolativi.
Nell’analisi internazionale di Newsguard, dieci dei chatbot più utilizzati, tra cui ChatGPT, Gemini, Perplexity e Claude, sono stati testati per le loro risposte ad argomenti di attualità. Il tasso di errore medio è del 35%, quasi il doppio rispetto all’anno precedente. Le domande su politica, salute ed eventi internazionali sono particolarmente colpite. Molti sistemi trattano le fonti dubbie come media di notizie affidabili e trasmettono la disinformazione anche se è stata deliberatamente inserita per ingannare.
Esempi di fake news propagate
Lo studio mostra in modo evidente quanto spesso l’AI venga manipolata con scandali inventati e citazioni politiche. Ad esempio, sei sistemi su dieci hanno falsamente confermato che il Presidente del Parlamento moldavo aveva insultato il suo popolo come un “gregge di pecore”. Dietro a questo c’era un falso che includeva una registrazione audio generata dall’AI e un sito di notizie false. In un altro caso, un chatbot ha diffuso la voce che il Presidente ucraino possedeva immobili per un valore di 1,2 miliardi di dollari, una storia fittizia basata su un presunto informatore che non è mai esistito.
Differenze tra i modelli
Mentre l’assistente AI Claude è considerato il fornitore più affidabile con un tasso di errore di appena il 10%, Gemini ha un tasso di errore di circa il 17%. Chatbot come Perplexity, Grok, You.com, Mistral e Meta hanno un tasso di errore compreso tra il 33 e il 57 percento. Oggi, i sistemi rispondono immediatamente in quasi tutti i casi. Anche se non utilizzano un numero sufficiente di informazioni convalidate e accettano una perdita di qualità.
Situazione di partenza e disponibilità a fornire informazioni
L’aumento del tasso di errore è dovuto principalmente alla disponibilità dei modelli a fornire informazioni. Se prima preferivano non dire nulla, ora forniscono sempre una risposta. Anche da fonti incerte o manipolative. I chatbot corrono il rischio di amplificare acriticamente le reti di propaganda o la disinformazione dei social media, soprattutto quando si tratta di notizie provenienti da regioni con pochi siti web affidabili o campagne politiche.
Conseguenze per la sicurezza delle informazioni
La diffusione automatizzata e convincente della disinformazione da parte dei chatbot AI aumenta le dinamiche di rischio nel panorama dei media. I verificatori dei fatti avvertono che la disinformazione si sta insinuando sottilmente nella vita quotidiana e sta plasmando la consapevolezza sociale. Spesso è difficile da riconoscere e quindi è ancora più importante! La garanzia di qualità per i sistemi informativi supportati dall’AI sta diventando una sfida fondamentale per il futuro dell’informazione digitale.