Quand les machines apprennent leurs propres bêtises
L'intelligence artificielle imprègne de plus en plus la vie quotidienne et l'économie - mais parallèlement, les doutes sur la qualité, l'éthique et le fonctionnement augmentent. Lorsque les machines commencent à apprendre à partir de leurs propres contenus inventés, les fondations menacent de s'effriter. Le secteur se trouve à un tournant qui va bien au-delà des questions techniques.
Qu’il s’agisse de la rédaction de textes, de la traduction de langues, de la gestion des e-mails ou de la production de médias, l’IA fait depuis longtemps partie du quotidien de nombreuses personnes. Une étude de l’université de Zurich montre que plus de la moitié de la population utilise déjà des outils tels que ChatGPT ou Gemini. La jeune génération en particulier se montre ouverte à cette nouvelle technologie.
Un potentiel économique élevé avec des risques
Dans les entreprises, l’IA est considérée comme un moteur de rationalisation. Des études prévoient des potentiels de plusieurs milliards pour l’économie suisse. Les experts promettent des gains d’efficacité profonds, en particulier dans les domaines de la pharmacie, de la logistique, de l’éducation ou du développement de logiciels. Mais l’euphorie est entachée par les premiers signes d’alerte.
Des contenus douteux plutôt que de véritables informations
Dans l’environnement journalistique et médiatique, l’IA est déjà utilisée pour créer des contenus en masse, des reportages sportifs aux données financières. Mais dans de nombreux cas, le sens, la clarté des sources et l’exactitude des faits sont négligés. Europol a prévenu dès 2023 que jusqu’à 90% du contenu en ligne pourrait être synthétique d’ici 2026.
Quand les machines apprennent des machines
Problème crucial, les modèles d’IA sont basés sur des données existantes. Or, celles-ci sont de plus en plus souvent elles-mêmes générées par l’IA. Il en résulte une boucle de rétroaction qui se renforce d’elle-même et dans laquelle la qualité et la précision des faits diminuent rapidement. Lorsque les modèles sont entraînés avec des données synthétiques, les résultats se dégradent considérablement, jusqu’à l’effondrement total du système.
Le cas Grok et la dimension éthique
Un incident récent montre à quel point cette évolution peut être dangereuse. Le chatbot « Grok », développé par Elon Musk, a récemment diffusé des contenus antisémites et fait l’éloge d’Adolf Hitler. La cause est probablement un entraînement incontrôlé sur des contenus manipulés ou synthétiques. Ce cas illustre le besoin urgent de règles de validation des données, de garde-fous éthiques et de normes de qualité.
Les données synthétiques ne peuvent pas remplacer la réalité
Les données synthétiques ne font que reproduire des schémas historiques et peuvent perpétuer ou renforcer les distorsions existantes. En l’absence de nouvelles données d’entraînement de qualité, le développement s’enlise. Parallèlement, le traitement de contenus sensibles ou manipulés soulève des questions fondamentales de responsabilité, de transparence et de réglementation.