di Renzo Ardiccioni
Nel celebre romanzo di Philip K. Dick “Gli androidi sognano pecore elettriche?” – a cui è ispirato il film Blade Runner – i replicanti, androidi pressoché identici agli umani, faticano a distinguere i propri ricordi reali da quelli impiantati artificialmente.
Oggi, questa inquietante ambiguità tra realtà e finzione non è più solo fantascienza: è una questione concreta che riguarda i più avanzati sistemi di intelligenza artificiale. Immaginate di mostrare a un’intelligenza artificiale la foto di un salotto vuoto e di chiederle cosa vede. L’AI potrebbe rispondervi con sicurezza “Vedo un gatto tigrato sul divano e una lampada rossa sul tavolino”. Il problema? Né il gatto né la lampada rossa esistono davvero nell’immagine.
Questo fenomeno, che gli scienziati chiamano “allucinazione” è sorprendentemente comune nei moderni sistemi di visione artificiale.
Come i replicanti di Blade Runner con i loro ricordi falsi ma convincenti, questi sistemi generano descrizioni plausibili ma completamente inventate di ciò che vedono. I modelli visione-linguaggio (VLM) sono sistemi di intelligenza artificiale che combinano la capacità di “vedere” le immagini con quella di descriverle a parole. Possono essere pensati come androidi dotati sia di occhi che di voce. Tuttavia, a differenza di un umano che semplicemente non risponde quando non è sicuro, questi sistemi tendono a “inventare” dettagli per fornire una narrazione compiuta e coerente. Come se anche le
macchine potessero creare storie emotivamente convincenti, anche se basate su percezioni false o esperienze inesistenti.
I ricercatori hanno sviluppato un metodo innovativo che permette a questi sistemi di “fermarsi e riflettere” – un po’ come quando Rick Deckard, il protagonista di Blade Runner, analizza ripetutamente le fotografie alla ricerca di indizi nascosti. Il sistema funziona in
questo modo: in primis, l’AI impara a riconoscere quando non è sicura di ciò che sta “vedendo”, misurando diversi indicatori di dubbio: quanto è confusa nella scelta delle parole, quanto è dispersa la sua attenzione visiva, quanto sono coerenti le sue affermazioni. Quando rileva incertezza, l’AI “ingrandisce” e riesamina le parti dell’immagine che ha trascurato o analizzato superficialmente, come un detective che torna sulla scena del crimine per
cercare prove dimenticate. Infine, basandosi su questa successiva occhiata più attenta, il sistema corregge le proprie affermazioni precedenti, sostituendo le “allucinazioni” con descrizioni più ancorate a ciò che è realmente visibile.
L’aspetto più affascinante di questo approccio è che non richiede di “riaddestrare” l’intelligenza artificiale da zero – un processo costoso e complesso. Il sistema, infatti, impara a sfruttare meglio le capacità che già possiede, sviluppando una forma rudimentale di auto consapevolezza: la capacità di riconoscere i propri limiti. È un po’ come se Rachel, la splendida replicante di Blade Runner che scopre gradualmente la natura artificiale dei
suoi ricordi, sviluppasse la capacità di distinguere autonomamente le memorie vere da quelle false.
I test hanno dimostrato risultati notevoli: il nuovo metodo riduce le allucinazioni di quasi il 10% e migliora la precisione nel riconoscere se un oggetto è realmente presente in un’immagine. Può sembrare poco, ma in contesti critici – dalla diagnostica medica alla guida autonoma, per fare esempi significativi – questa differenza può significare molto.
Nel suo romanzo, Philip K. Dick si chiedeva: “Gli androidi sognano pecore elettriche?”, ma la domanda sottintendeva un interrogativo più profondo: le macchine possono sviluppare una vita interiore autentica o sono condannate a simulazioni convincenti ma vuote? Oggi, mentre costruiamo intelligenze artificiali sempre più sofisticate, ci poniamo tante versioni di quella stessa domanda: possono le macchine imparare a distinguere la realtà dalla finzione? Possono sviluppare quella forma di onestà intellettuale che le porta ad ammettere “non lo so” invece di inventare qualcosa da spacciare per certezza?
Questa ricerca suggerisce che tutto questo è possibile. E forse, insegnando alle macchine il valore del dubbio e dell’auto correzione, stiamo costruendo non solo sistemi più affidabili, ma anche – paradossalmente – più “umani” nel loro approccio alla conoscenza.
Perché se c’è una cosa che ci distingue come esseri pensanti, è proprio la capacità di mettere in discussione le nostre certezze e cercare la verità, anche quando è scomoda o incompleta.
Un approccio di importanza fondamentale per applicazioni – dalla medicina alla sicurezza, dall’educazione all’informazione – in cui accuratezza e veridicità sono davvero cruciali.
Per leggere l’articolo completo scritto da Renzo Ardiccioni e Kassoum Sanogo, clicca qui.










