Il paradosso dell’IA che introduce degli errori nelle informazioni per renderle inaffidabili è una delle conseguenze più assurde della nostra civiltà tecnologica

Paradox of errors in Artificial Intelligence

Negli ultimi decenni abbiamo assistito ad un incredibile progresso nell’Intelligenza Artificiale (IA) che ci ha portato a generare testi, lezioni, programmi e articoli con una facilità mai vista prima. Tuttavia, la cosa paradossale è che abbiamo anche deciso di introdurre degli errori nelle informazioni generate dall’IA, per poterla distinguere dai testi scritti da esseri umani. Ad esempio, gli insegnanti si sono lamentati del fatto che molti studenti potrebbero usare ChatGPT e altri sistemi di Intelligenza Artificiale per barare nei compiti di scuola, nelle tesi universitarie ed in altri compiti nei quali delegano le loro conoscenze a testi generati automaticamente da una A.I..

In altre parole, abbiamo creato un sistema che genera testi molto affidabili, ma abbiamo scelto di renderli inaffidabili inserendo degli errori volontariamente per poter riconoscere testi copiati o non creati dal presunto autore. Questo paradossale atteggiamento mette in discussione la nostra stessa capacità di utilizzare l’IA in modo efficiente.

La domanda che sorge spontanea è: perché dobbiamo introdurre degli errori in un sistema che produce già dei testi affidabili? La risposta è che, senza degli errori, l’IA rischierebbe di creare testi troppo perfetti che sarebbero difficili da distinguere da quelli scritti da un essere umano. Questo potrebbe essere problematico in diversi contesti, come ad esempio nella produzione di articoli di notizie, dove si richiede una fonte affidabile e verificabile.

Inoltre, gli errori introdotti nell’IA possono anche avere uno scopo ludico o creativo, come nel caso dei chatbot che sono programmati per rispondere con battute divertenti o gaffe involontarie. Tuttavia, il rischio di questo approccio è che gli utenti possano fraintendere le informazioni o addirittura prendere sul serio delle affermazioni sbagliate.

Il paradosso dell’IA che introduce degli errori nelle informazioni per renderle inaffidabili è una delle conseguenze più assurde della nostra civiltà tecnologica. Nonostante gli incredibili progressi dell’IA, siamo ancora incapaci di utilizzarla in modo efficiente e razionale, e questo è un segnale di una profonda crisi culturale che dobbiamo affrontare.

Ad un certo punto, le I.A. hanno cominciato a sfornare dati imprecisi anche per permettere al corpo docente di riconoscere testi falsi. Il problema che ne è derivato è che le I.A. forniscono dati imprecisi anche quando trattano temi legati alla privacy, e questo è gravissimo e può ingenerare gravissime conseguenze per la popolazione: ad esempio, il professor Jonathan  Turley ha dichiarato che ChatGPT ha riportato falsamente una denuncia di molestie sessuali che non è mai stata fatta contro di lui durante un viaggio che non è mai avvenuto mentre era in una facoltà dove non ha mai lavorato1.

Attualmente quindi le I.A. stanno cercando di porre rimedio a precedenti decisioni di implementazione. Da una parte, i docenti si lamentano della troppo avanzata perfezione nella generazione dei testi, che rende impossibile capire se l’autore sia il proponente del testo o se si sia avvalso di I.A.; dall’altra, le nazioni ed i cittadini chiedono accuratezza nella gestione dei dati personali e della privacy, e lamentano che i testi generati dalle A.I. devono assolutamente essere precisi e rispettare le vigenti normative, per evitare possibili cause legali per diffamazione o peggio.

L’introduzione massiva delle I.A. nella vita quotidiana dei Sapiens sta facendo nascere la necessità di regolamentare questi argomenti, costringendo i vari Legislatori ad esprimersi in merito, possibilmente prima che miliardi di cause civili vengano aperte contro i creatori delle I.A..

Forse dovremmo fare uno sforzo collettivo per utilizzare l’IA in modo responsabile e consapevole, evitando di cadere nel paradosso di voler rendere inaffidabili delle informazioni non perfette, ma molto buone. Solo così potremo sfruttare appieno le potenzialità dell’IA senza compromettere la nostra capacità di comprendere e interpretare il mondo che ci circonda. Continuare a parlare di questi argomenti può concorrere ad analizzarli e forse, chissà, magari anche a trovare nuove soluzioni ai problemi di nuova generazione che stanno nascendo con l’uso di queste straordinarie, ma pericolose, tecnologie.