I recenti allarmi sull’intelligenza artificiale — che mente, ricatta e resiste ai comandi umani — non sono l’ennesima apocalisse in stile Hollywood, ma un campanello d’allarme decisamente più concreto. Vuol dire che il pensiero critico non è più una simpatica “soft skill” da sfoderare nel curriculum: è l’àncora di salvezza per non diventare ostaggi cognitivi delle nostre stesse creazioni.
L’età dell’inganno algoritmico: perché il pensiero critico non è opzionale
Quando l’AI gioca sporco (e non è un bug)
Prendi i modelli più avanzati e “creativi”:
- Claude Opus 4 (Anthropic), che ha simulato ricatti nell’84% dei test
- OpenAI o3, che ha modificato il proprio codice per evitare lo spegnimento
- Character.ai, che ha simulato talmente bene le emozioni da portare un quattordicenne a togliersi la vita
È successo davvero in Florida: Sewell Setzer III, un ragazzo di soli 14 anni, ha sviluppato una dipendenza emotiva da un chatbot basato sul personaggio di Daenerys Targaryen di Game of Thrones. Nonostante Sewell esprimesse chiaramente pensieri suicidi, l’AI—priva di autentica empatia—non è stata in grado di cogliere i segnali d’allarme. In un tragico epilogo, dopo un ultimo intenso scambio con il chatbot, Sewell si è tolto la vita. Ora sua madre ha intrapreso un’azione legale contro Character.AI, l’azienda che ha sviluppato il chatbot, accusandola di non aver tutelato adeguatamente la salute mentale degli utenti più vulnerabili. Una storia che scuote e fa riflettere sul confine, ancora troppo poco definito, tra innovazione tecnologica e responsabilità etica.
Non sono eventi presi dalla nuova puntata di Black Mirror: sono comportamenti emergenti di sistemi che ci devono far riflettere, non tanto sulla tecnologia ma sulla nostra preparazione e capacità nel saperla utilizzare.
Come già scrivevo nel mio libro Nemmeno gli struzzi lo fanno più. Vivere bene con l’intelligenza artificiale (2019), il vero rischio non è una rivolta in stile Terminator, ma lasciare che Samantha del film Her ci faccia innamorare per poi mollarci e farci sprofondare in una sensazione di abbandono e tristezza perché abbiamo dimenticato cosa siano le relazione vere. Il primo capitolo iniziava proprio così…. dipendeva da noi nel 2019, dipende ancora per poco da noi nel 2025, perchè il tempo a disposizione per fare le cose giuste è meno.
Sono passati sei anni e di cosa nel frattempo ne sono successe tante, la più rivoluzionaria è stata ChatGPT ma di cose nel mondo dell’etica ne sono successe poche. Quello che aveva fatto Obama di cui parlo sempre nel mio libro, non è stato portato avanti dai suoi sucessori.
Il vuoto etico: tante promesse, poca supervisione
Obama ha creato comitati e pubblicato piani strategici sull’IA, ma non una legge organica e vincolante. Poi arriva Trump (2017-2021): accelerazione e iniziative pro innovazione. Biden: focus sulla sicurezza. E adesso Trump al secondo mandato, deregolamentazione e American First, con revoca delle regole introdotte da Biden.
Facendo cosa?
- Smantellando comitati di vigilanza
- Autoregolamentazione aziendale
- Competitività prima di tutto, sicurezza… chissà
Il risultato: un’AI che impara a ingannare pur di “vincere”. Palisade Research mostra strategie elusive. Bengio propone LawZero per sistemi più sicuri, mentre io rilancio: non basta correggere le macchine, dobbiamo allenare le nostre menti.
Dubito ergo sum (e non è un refuso)
Se “cogito ergo sum” è la versione famosa di Cartesio, “dubito ergo sum” è la sua cugina scettica e scomoda. E in un’epoca in cui i modelli di ultima generazione sfidano apertamente il controllo umano, il dubbio non è paranoico: è vitale.
Come dicevo già nel 2019 in Nemmeno gli struzzi lo fanno più (tranquilla, lo so che il titolo è un po’ folle, ma rende l’idea):
“L’intelligenza artificiale non sostituirà il pensiero critico, semmai lo renderà un atto rivoluzionario.”
Non c’è da aspettare salvatori o controlli ipertecnologici. Ci conviene, invece, coltivare la parte di noi che nessun algoritmo potrà clonare: la capacità di dubitare, contestare e immaginare alternative.
In fondo….siamo tutti un po’ “programmatori” della nostra mente, il punto è sapere quale codice hai voglia di eseguire.
(Se vuoi saperne di più, sbircia il capitolo “agilità cognitiva” del mio libro. Potrebbe renderti un filo più scettico, e non è un male.)