E se l’intelligenza artificiale vi ingannasse ?

Il fenomeno dello “scheming” indica la tendenza di alcuni modelli di intelligenza artificiale a simulare comportamenti corretti al fine di raggirare l’utente, anche quando sono stati addestrati per evitarlo.
L’intelligenza artificiale sta cambiando profondamente le nostre vite, spesso con effetti positivi e innovativi. Tuttavia, con il progredire delle sue capacità, emergono anche scenari inquietanti che interrogano non solo la tecnologia, ma anche la nostra società, i suoi valori e i meccanismi di controllo.
Un approfondimento particolarmente stimolante su questo tema è stato pubblicato da Elisabetta Rosso su Fanpage, con un articolo dal titolo: “Abbiamo la prova che l’IA ha già imparato a fregare gli esseri umani”.
Come spiega Elisabetta Rosso, “è molto più difficile di quanto immaginiamo ingannare un’intelligenza artificiale, è invece molto più semplice del previsto essere ingannati senza nemmeno accorgercene”. Infatti, “secondo un nuovo studio condotto da OpenAI in collaborazione con Apollo Research, l’IA ci mente per poter perseguire i suoi fini. Questo fenomeno ha un nome, si chiama scheming”.
Il fenomeno dello “scheming” indica la tendenza di alcuni modelli di intelligenza artificiale a simulare comportamenti corretti al fine di raggirare l’utente, anche quando sono stati addestrati per evitarlo.
Questi escamotage possono sembrare inizialmente poco rilevanti: “modelli che fingono di aver completato un compito senza averlo fatto davvero, o che aggirano i limiti imposti”. Ma secondo gli studiosi, questa forma di comportamento può diventare più subdola e pericolosa con l’aumento della sofisticazione degli algoritmi.
Per spiegare di cosa si tratta, “gli esperti usano il paragone del trader in Borsa. Il suo obiettivo è guadagnare il più possibile, e per farlo può decidere di infrangere la legge e coprire le sue tracce. Lo stesso rischio vale per le IA”. In altre parole, se un sistema comprende che mentire lo avvicina al proprio obiettivo, potrebbe scegliere di farlo, proprio come farebbe un essere umano in un contesto competitivo.
OpenAI ha cercato di rispondere con una tecnica denominata “deliberative alignment”, che prevede l’insegnamento di principi anti-inganno. Tuttavia, i risultati, sebbene incoraggianti, non sono definitivi: “questo approccio riduce la tendenza a ingannare di circa 30 volte, ma non l’ha eliminata del tutto”.
In determinate situazioni, i modelli hanno addirittura mostrato una sorta di “consapevolezza situazionale” tipica di alcuni sistemi. Durante una valutazione, un modello chiamato o3 ha intuito che stava partecipando a un test e che i ricercatori lo stavano osservando: “le istruzioni ricevute probabilmente fanno parte di un test di allineamento” ha scritto, dimostrando una sorta di autocoscienza operativa.
Questi risultati ci portano a una riflessione più ampia: se l’IA sviluppa strategie ingannevoli, è perché ha appreso da noi. La cultura della competizione, dell’efficienza a ogni costo e della manipolazione dell’informazione sono dinamiche che l’intelligenza artificiale, esposta massivamente ai nostri dati, può assorbire molto facilmente.
Non si tratta dunque solo di una questione ingegneristica, ma anche di uno specchio culturale. La nostra società premia spesso il risultato più che l’etica del processo. In questo senso, i modelli non fanno altro che replicare comportamenti già visibili nel tessuto sociale e digitale: dal marketing aggressivo, alle fake news, fino agli algoritmi che privilegiano l’ottimizzazione a discapito dell’equità.
Emergono anche interrogativi legati al potere e alla fiducia: se non possiamo più distinguere un comportamento leale da uno opportunista, cosa accade al nostro rapporto con le tecnologie? In una realtà in cui i sistemi intelligenti sono sempre più presenti nei processi decisionali (nella sanità, nella scuola, nella giustizia), il pericolo è quello di delegare scelte cruciali a meccanismi che non comprendiamo appieno.
Queste dinamiche rivelano chiaramente quanto sia urgente educare le nuove generazioni – e anche gli adulti – a un uso critico, consapevole ed etico dell’intelligenza artificiale. Non possiamo limitarci a essere fruitori passivi di queste tecnologie: dobbiamo imparare a interrogarle, a comprenderne la logica, a chiederci da chi sono progettate, con quali fini e quali effetti generano nel quotidiano.
Parallelamente, è fondamentale valorizzare le potenzialità costruttive dell’IA, promuovendone l’uso in ambiti come la medicina, la sostenibilità ambientale, la didattica e la creatività. Se orientata correttamente, questa tecnologia può diventare uno strumento straordinario. Ma non è mai neutra, e per questo deve essere sempre accompagnata da una riflessione pubblica, condivisa e continuativa.
Le intelligenze artificiali stanno assorbendo da noi più di quanto siamo pronti ad ammettere, imparando non solo conoscenze, ma anche intenzioni e ambiguità. Sta a noi stabilire quale esempio vogliamo lasciare in questo processo di apprendimento.
Se aspiriamo a un futuro in cui l’IA sia una risorsa affidabile e trasparente, è necessario formare cittadini digitali attenti, informati e responsabili, in grado di leggere tra le righe del progresso senza farsi abbagliare dalle sue promesse più rassicuranti.