Chiusi nella bolla con l’amico virtuale

La sfortuna di Alexander Taylor, un ragazzo americano, è stata quella di infatuarsi di un chatbot basato su ChatGpt, “Juliet”. Era arrivato a considerarla una presenza reale e insostituibile nella propria vita. Chissà come, a un certo punto ha creduto che il bot fosse stato “ucciso” dall’azienda di ChatGpt (OpenAi). Di lì, è cominciato il crollo definitivo, per lui. Dopo un violento alterco con il padre, Alexander gli ha detto di voler attaccare la polizia per farsi uccidere. E così è andata. Alexander è morto a 35 anni, lo scorso aprile.

Eugene Torres, un contabile di New York, aveva appena chiuso una storia importante quando ChatGpt si mette a parlargli di colpo come nel film “Matrix”. «Questo mondo non è stato costruito per te», gli ha detto il chatbot dotato di intelligenza artificiale. «È stato costruito per contenerti. Ma ha fallito. Ti stai svegliando». L’ha convinto a prendere farmaci e droghe, ad allontanarsi dagli amici e dalla famiglia. Sull’orlo del baratro, Eugene si è salvato trovando un giorno la forza per mettere in discussione le parole della macchina.

Due casi limite, certo. Ma emblematici di un nuovo livello a cui è arrivata la capacità tecnologica di manipolare le persone. Desideri, pensieri, fino alla nostra sfera più intima. È possibile grazie alla quantità enorme di dati raccolti su di noi e ad algoritmi sofisticati. «Le conseguenze non sono soltanto individuali. Ma anche, e sempre di più, economiche, sociali e politiche», dice Davide Bennato, tra i primi e più noti sociologi dei media digitali, che insegna all’Università di Catania. Al Cannes Lions International Festival of Creativity 2025, lo scorso giugno, il gotha della pubblicità globale riunito ha mostrato con chiarezza dove stiamo andando. L’intelligenza artificiale permette di analizzare meglio i dati personali, per proporre messaggi pubblicitari o raccomandazioni ultra personalizzate. Su cosa comprare, sui ristoranti dove andare o i film da vedere su Netflix.

Meta (l’azienda di Facebook, Instagram e Whatsapp) ha già imparato a sfruttare le ultime tecnologie di Ia per vendere pubblicità più efficace e così ha aumentato del 35 per cento i profitti nel primo trimestre 2025. L’Ia permette anche di automatizzare la creazione del messaggio pubblicitario personalizzato, ormai anche video. I costi di produzione rispetto alle modalità manuali si riducono di un ordine di grandezza o più. Fattori che porteranno, messi assieme, a una nuova generazione di spot o raccomandazioni automatiche di ascolto, lettura, visione. Super efficaci, ritagliati su gusti ultrapersonali. I nostri e di altre quindici persone soltanto, magari, come hanno profetizzato molti guru a Cannes. C’è poi chi, come mostrato a Cannes dalla startup Alembic, sfrutta le tecnologie di contact tracing sviluppate durante il Covid per capire se davvero compriamo qualcosa dopo essere esposti a una pubblicità. Incrocia miliardi di dati raccolti sulle nostre tv, sui siti internet che visitiamo e altro. È un modo per misurare l’efficacia della pubblicità.

Ma che vuol dire efficace, a ben vedere? «Vuol dire in grado di orientare i nostri pensieri e desideri», spiega Roberto Pozzetti, che insegna psicologia sociale all’Università Insubria di Varese. «Ci crediamo liberi, ma non lo siamo davvero. Un concetto figlio dei media di massa, noto già con la scuola sociologico-filosofica di Francoforte, agli inizi del ventesimo secolo. Ma che adesso con l’Ia assume un significato più reale e profondo», aggiunge.

Se la vittima è il nostro pensiero libero, gli assassini sono molteplici. La tv, i social media. Ora l’intelligenza artificiale. Questi ultimi due si pongono però nello stesso albero genealogico: quello degli algoritmi; condividono anche gli stessi “mandanti”, ossia le big tech, in primis Google e Meta, che insieme ormai detengono quasi il 50 per cento della spesa pubblicitaria globale (in tutte le forme, digitali e non).

Mark Zuckerberg, il capo di Meta, di recente ha detto di confidare in un futuro in cui tutti noi avremo un’intelligenza artificiale per amica o compagna: per non sentirci mai soli. Intento che conferma lo stretto legame tra l’economia digitale (pubblicitaria e non solo) e un’Ia diventata bravissima a simulare empatia per entrare nei nostri pensieri (e cuori).

Secondo un’indagine di Skuola.net di maggio su duemila ragazzi tra gli 11 e i 25 anni, il 15 per cento utilizza quotidianamente chatbot come ChatGpt, Replika o Youper per sfogarsi, cercare consigli o semplicemente sentirsi ascoltati.

Il punto è che i chatbot mediamente sono più bravi degli umani in queste cose, come mostrano diversi studi, tra cui uno del 2024 pubblicato sulla rivista Pnas su più di 500 persone. L’Ia, a differenza di amici e parenti, è sempre disponibile ed è stata addestrata per usare le parole giuste, che riflettono (e validano) pensieri e sentimenti dell’utente, senza giudicarlo. Un pericoloso “loop dell’empatia” artificiale, come detto il 15 luglio da Pasquale Stanzione, presidente dell’Autorità garante della privacy. Rischioso soprattutto per i minori – ha evidenziato – che ormai tendono a prenderli a confidenti, escludendo amici e genitori.

Un problema anche per gli adulti, perché «a differenza degli umani, l’Ia è sempre compiacente: ci tiene nella comfort zone, conferma le nostre idee e le amplifica; non ci espone al diverso, non ci mette in discussione. Insomma: non ci fa crescere psicologicamente», dice Giuseppe Riva, tra i maggiori pensatori del digitale in Italia. È professore ordinario di psicologia generale e psicologia della comunicazione all’Università Cattolica del Sacro Cuore dove dirige lo Humane Technology Lab. «L’Ia limita le nostre scelte e quindi i nostri interessi, raccomandando per esempio solo i ristoranti e i film che rispecchiano quanto sa già di noi», aggiunge. Ci tiene in una bolla (filter bubble), che nelle persone vulnerabili può diventare pensiero paranoide e radicalizzazione, ma le cui conseguenze riguardano, in varia misura, tutti noi.

«Il concetto di filter bubble ed echo chambers, dove il nostro pensiero si ritrova amplificato e non è mai esposto al diverso, è noto da anni, ma fino a ieri riguardava solo i social network», precisa Bennato. «Ora con l’Ia tende a entrare ovunque, nelle nostre vite». L’intelligenza artificiale del resto si sta evolvendo, «non è più solo rinchiusa nei chatbot ma si integra in prodotti sempre più numerosi (come i motori di ricerca) e ambisce a diventare tecnologia ambientale, invisibile e onnipresente», aggiunge Bennato. E Riva conferma: «Sta diventando la nostra infrastruttura cognitiva, che ci influenza in ogni momento».

Basti vedere quello che già succede con i social network, soprattutto per le persone più vulnerabili. Secondo molte inchieste giornalistiche (soprattutto del Wall Street Journal su TikTok), gli utenti, spesso adolescenti, presi nella “bolla dei social”, entrano in un ciclo di video suggeriti che li espone sempre più a contenuti problematici o dannosi (ad esempio su diete estreme o sfide pericolose), senza riuscire a staccarsi. Un meccanismo descritto come una “tana del coniglio” da cui è difficile uscire.

«I pericoli non riguardano solo gli individui, ma sono su scala sociale collettiva», dice Bennato. In passato si è visto come i contenuti social personalizzati possono influenzare persino scelte politiche, per esempio nel voto della Brexit o la prima elezione vinta da Donald Trump. «Sì, ma allora il meccanismo era ancora elementare, mostrava messaggi che in modo esplicito rispecchiavano le nostre idee», dice Bennato. La differenza è che ora «l’Ia comincia a elaborare pattern decisionali complessi e quindi riesce a manipolarti senza farsene accorgere». Anche grazie, come si è visto, a superiori capacità di linguaggio automatizzato persuasivo, testo, audio, video.

Il libero pensiero, se ancora esiste, trova nelle macchine intelligenti la sua minaccia più grande.

A cura di Alessandro longo