Quando le macchine imparano le proprie assurdità

L'intelligenza artificiale sta plasmando sempre più la vita quotidiana e l'economia - ma allo stesso tempo crescono i dubbi sulla qualità, sull'etica e sul suo funzionamento. Quando le macchine iniziano a imparare dai contenuti da loro stessi inventati, le fondamenta minacciano di crollare. Il settore sta affrontando una svolta che va ben oltre le questioni tecniche.

Luglio 2025

Che si tratti di creazione di testi, traduzione di lingue, gestione di e-mail o produzione di media, l’AI fa da tempo parte della vita quotidiana di molte persone. Uno studio dell’Università di Zurigo mostra che più della metà della popolazione utilizza già strumenti come ChatGPT o Gemini. In particolare, la generazione più giovane è aperta alla nuova tecnologia.

Alto potenziale economico con rischi
Nelle aziende, l’AI è vista come un motore di razionalizzazione. Gli studi prevedono un potenziale di miliardi per l’economia svizzera. Soprattutto nei settori della farmaceutica, della logistica, dell’istruzione e dello sviluppo di software, gli esperti prevedono profondi guadagni di efficienza. Tuttavia, l’euforia è offuscata dai primi segnali di allarme.

Contenuti dubbiosi invece di informazioni reali
Nell’ambiente giornalistico e dei media, l’AI viene già utilizzata per la produzione di massa di contenuti, dai resoconti sportivi ai dati finanziari. Tuttavia, in molti casi, la significatività, la chiarezza delle fonti e l’accuratezza dei fatti vengono meno. L’Europol ha avvertito già nel 2023 che fino al 90% dei contenuti online potrebbe essere sintetico entro il 2026.

Quando le macchine imparano dalle macchine
Un problema centrale è che i modelli di AI si basano su dati esistenti. Tuttavia, questi sono sempre più spesso generati dall’AI stessa. Il risultato è un ciclo di feedback auto-rinforzante in cui la qualità e l’accuratezza dei fatti diminuiscono rapidamente. Se i modelli vengono addestrati con dati sintetici, i risultati peggiorano drasticamente, fino al collasso completo del sistema.

Il caso Grok e la dimensione etica
Un recente incidente mostra quanto possa essere pericoloso questo sviluppo. Il chatbot “Grok” sviluppato da Elon Musk ha recentemente diffuso contenuti antisemiti e lodato Adolf Hitler. La causa è presumibilmente una formazione incontrollata su contenuti manipolati o sintetici. Il caso illustra l’urgenza di regole per la convalida dei dati, linee guida etiche e standard di qualità.

I dati sintetici non sostituiscono la realtà
I dati generati sinteticamente rappresentano solo modelli storici e possono perpetuare o rafforzare i pregiudizi esistenti. Senza nuovi dati di formazione di alta qualità, l’ulteriore sviluppo si arresterà. Allo stesso tempo, la gestione di contenuti sensibili o manipolativi solleva questioni fondamentali sulla responsabilità, la trasparenza e la regolamentazione.

Più articoli