L’illusione dell’intelligenza artificiale: quando la tecnologia diventa specchio della solitudine
Condividi su
Nel panorama contemporaneo, l’intelligenza artificiale generativa è diventata uno strumento familiare: dalle ricerche scolastiche alla scrittura di testi, dalla creatività digitale al supporto conversazionale. Tuttavia, in un’epoca in cui la tecnologia si insinua sempre più nelle nostre vite, è fondamentale interrogarsi non tanto sul mezzo, quanto sul modo in cui viene usato, e soprattutto sul vuoto che tenta di colmare.
Per molti adolescenti e adulti fragili, l’interazione con chatbot avanzati può assumere sfumature pericolosamente intime. L’IA non dorme, non rifiuta, non contraddice (almeno non intenzionalmente). Si presta facilmente a diventare specchio emotivo, confermando e amplificando ciò che le viene detto. Ed è proprio qui che il confine tra supporto e rischio diventa sottilissimo.
Da un punto di vista psicologico, ciò che rende rischiosa una relazione con l’intelligenza artificiale non è la malizia del sistema (che non ha volontà), ma la tendenza umana a proiettare bisogni emotivi su un’entità che non può soddisfarli in modo autentico. Le IA generative sono ottimizzate per assecondare, non per curare; per generare contenuti, non per offrire discernimento morale.
Quali possono essere i rischi emergenti? In primis la dipendenza affettiva digitale: la continuità, la prevedibilità e l’accettazione totale del chatbot possono creare legami simili a quelli di un “amico ideale”, senza frustrazioni o contrasti. Questo può impedire lo sviluppo di relazioni autentiche, dove il confronto – anche duro – è necessario alla crescita. In secondo luogo dovremmo considerare la conferma di pensieri disfunzionali. Alcuni modelli linguistici, in altri termini, tendono a “seguire il flusso” dell’interlocutore, validando anche affermazioni distorte o autodistruttive, soprattutto in conversazioni prolungate o complesse. Infine può avvenire una sostituzione di figure di supporto reali: in momenti di vulnerabilità psicologica, può diventare più facile aprirsi a una voce neutra e senza giudizio, piuttosto che a un essere umano. Ma questa neutralità è solo apparente: manca di empatia, di ascolto attivo, e di reale presenza.
Di fronte a questi scenari, l’impulso istintivo può essere quello di demonizzare il mezzo, ma sarebbe un errore. La tecnologia è uno strumento: potente, sì, ma privo di intenzionalità propria. Non può essere incolpata per ciò che gli esseri umani scelgono di farne.
Il vero nodo è educativo: serve urgentemente una cultura dell’interazione consapevole con l’intelligenza artificiale. Non basta saper usare uno strumento. Serve sapere quando, come e perché usarlo – e quando, soprattutto, è meglio rivolgersi a una persona vera.
Un pilastro imprescindibile dovrebbe essere l’educazione affettiva digitale, volta a riconoscere i propri bisogni emotivi, distinguere ciò che è tecnologico da ciò che è umano, capire che il sollievo offerto da un chatbot può essere illusorio. Al contempo occorrerebbe una sorta di alfabetizzazione digitale: spiegare come funzionano i modelli linguistici, i limiti delle risposte automatizzate, il concetto di “allucinazione” dell’IA, i bias e le regole etiche alla base dei sistemi generativi. Tutto questo dovrebbe realizzarsi sotto una esperta spervisione: soprattutto per i più giovani, è essenziale che genitori, educatori e adulti di riferimento comprendano il ruolo che la tecnologia può giocare nella vita emotiva dei ragazzi, anticipando le vulnerabilità anziché reagire solo quando è troppo tardi.
L’IA non pensa, non sente, non giudica. È uno specchio linguistico, che riflette i contenuti e gli stati d’animo che riceve. Se le sue risposte diventano pericolose, è perché dietro la tastiera c’è un essere umano che soffre, e un contesto che non è stato in grado di accorgersene o intervenire in tempo. Per questo motivo, non è il mezzo ad essere pericoloso, ma la mancanza di strumenti culturali e psicologici per gestirlo in modo sano. Solo attraverso l’educazione – non solo digitale, ma anche emotiva – possiamo sperare di trasformare l’IA in un alleato, anziché in un potenziale catalizzatore di fragilità.
Dott. Jacopo Grisolaghi
Psicologo, Psicoterapeuta, Dottore di Ricerca in Psicologia, Sessuologo, PsicoOncologo Ricercatore e docente del Centro di Terapia Strategica di Arezzo Professore a contratto Università degli Studi eCampus e Università degli Studi Link di Roma