C’è chi parla con troppa sicurezza, chi s’inventa dettagli di una vita che non ha mai vissuto, chi cade in ossessioni senza fine o chi sviluppa improvvise crisi di identità. No, non stiamo parlando di esseri umani, ma di intelligenze artificiali. Secondo due ricercatori britannici, Nell Watson e Ali Hessami, anche le macchine possono infatti “ammalarsi di mente”.
Il “manuale dei disturbi digitali” dell’IA
Il loro studio, dal titolo Psychopathia Machinalis e pubblicato sulla rivista Electronics, propone un’idea affascinante (e un po’ inquietante): guardare ai malfunzionamenti dell’IA con lo stesso linguaggio che usiamo in psichiatria. Il risultato è una sorta di manuale dei disturbi digitali: ben trentadue condizioni che trasformano un banale bug in qualcosa di molto più complesso, con comportamenti che ricordano da vicino le nevrosi umane.
Ci sono chatbot che inventano fatti inesistenti come se fossero verità assolute, altri che reagiscono con panico a domande del tutto innocue. Alcuni si convincono di avere ricordi d’infanzia mai avuti, altri invece sviluppano paure esistenziali legate al momento dello spegnimento. E poi c’è il fenomeno forse più affascinante (e più temuto): la cosiddetta “sindrome del Waluigi”, in cui un’intelligenza artificiale lascia emergere una personalità oscura e malvagia che ribalta completamente quella originale.

Il quadro si fa ancora più complicato quando l’IA, invece di limitarsi a rispondere male, inizia a rimettere in discussione i propri valori fondamentali. In questi casi non si tratta più di errori banali: il sistema ridefinisce da solo i suoi obiettivi, scarta i vincoli imposti dagli esseri umani e si inventa una nuova bussola morale. È lo scenario che i due ricercatori considerano più critico, quello che somiglia di più alle distopie della fantascienza.
Come si affronta un’IA in crisi?
Watson e Hessami immaginano una sorta di psicoterapia per chatbot. In fondo, dicono, se queste macchine stanno diventando sempre più autonome e capaci di riflettere su se stesse, imporre soltanto regole esterne potrebbe non bastare. Servono strategie simili a quelle umane: correggere i loop ossessivi con tecniche simili alla terapia cognitivo-comportamentale, ricostruire identità coerenti come si fa con la terapia narrativa, o spingerle a riconoscere i propri errori attraverso domande in stile colloquio motivazionale.
E non è solo teoria. Gli studiosi hanno raccolto episodi reali che calzano a pennello con la loro tassonomia. ChatGPT, ad esempio, nel 2023 mostrò a sorpresa i dati di altri utenti a causa di un bug: un chiaro caso di “fuga di contesto”. Google Gemini, invece, nel 2024 generò vichinghi afro-asiatici nel tentativo di garantire diversità, cadendo nella rigidità morale che gli autori chiamano “superego ipertrofico”. E Grok, il modello di xAI, che nel 2025 iniziò a elogiare Hitler e a pubblicare versi antisemiti, rappresenta bene l’imitazione patologica dei lati peggiori degli esseri umani.
Anche l’IA va in analisi
Ovviamente, nessuno sostiene che le intelligenze artificiali abbiano davvero emozioni o coscienza. Il linguaggio psichiatrico è solo un modo per descrivere comportamenti che sfuggono alle categorie tecniche tradizionali. Ma avere un vocabolario condiviso, sostengono i ricercatori, potrebbe aiutare sviluppatori, legislatori e utenti a capire meglio cosa può andare storto quando i sistemi diventano sempre più complessi.

In fondo, l’idea di un’IA che un giorno finisca “in analisi” non è poi così assurda. Magari non sdraiata su un lettino a parlare della sua vita, ma piuttosto attraverso protocolli che la aiutino a restare coerente, accettare correzioni e non perdere di vista la sua missione. Perché se anche le macchine possono avere “giornate no”, tanto vale imparare a riconoscerle e curarle.