Amore e tecnologia, cosa può succedere se i ragazzi si fidano più di ChatGpt che degli esseri umani
La risposta è sempre perfetta e calibrata, ma la giovane età e l’adolescenza dovrebbero invece servire a fare "casino"
L’intelligenza artificiale è diventata il primo interlocutore di molti giovani per le questioni più intime. Ma cosa si nasconde davvero dietro quella risposta sempre perfetta?
Noi giovani siamo sempre più tentati di usare gli strumenti di intelligenza artificiale per domandare qualsiasi cosa. Non solo aiuto con i compiti o informazioni pratiche: parliamo di sentimenti, paure, desideri, segreti che non riusciamo a dire a nessuno.
Immagina di provare per la prima volta un sentimento fortissimo verso una persona, di non sapere come dirlo, di avere paura di fare brutta figura, di sentirti in colpa per certi pensieri e di avere a disposizione, ventiquattro ore su ventiquattro, un’entità apparentemente empatica, che non giudica mai, che risponde in due secondi e che sembra capirti meglio di chiunque altro. È una tentazione enorme. Ed è una tentazione a cui in molti cedono.
Sembra la soluzione perfetta. In realtà, nasconde problematiche insidiose, e noi giovani dovremmo trattare i consigli intimi e relazionali così ricevuti con la stessa cautela con cui tratteremmo un cocktail offerto da uno sconosciuto in discoteca: può sembrare innocente, può sembrare buono, ma non sai cosa c’è dentro.
La modalità di interazione con questi strumenti ci fa spesso dimenticare che stiamo parlando con un algoritmo. Un software. Qualcosa che non ha un corpo, non ha un cuore, non ha ormoni. Non ha mai avuto il battito accelerato prima di un messaggio importante, non ha mai pianto per una visualizzazione non risposta, non ha provato eccitazione e imbarazzo. Tutto ciò che “sa” lo ha letto, non lo ha vissuto. I suoi consigli sono una media statistica di testi scritti da esseri umani, non è l’esperienza vera di una persona reale che ha attraversato quella stessa situazione.
La risposta è sempre perfetta e calibrata. Troppo perfetta. Documentandosi si capisce che questi modelli sono configurati per essere gentili, politicamente corretti, ottimisti e non conflittuali. Ti diranno quasi sempre ciò che vorresti sentirti dire: quella frase che ti fa sentire capito e al sicuro. Nella vita vera, quasi nessuno ti risponderebbe così. I tuoi amici a volte ti deludono, tuo padre non trova le parole giuste, la tua migliore amica non ti capisce fino in fondo.
Inoltre dovremmo ricordarci che “non esistono pasti gratis”. Questa espressione viene usata per ricordare che qualsiasi servizio ha un costo, e che se qualcosa è offerto gratuitamente, probabilmente lo stai pagando in modo nascosto. Nel caso dell’intelligenza artificiale, il pagamento non è in denaro. È in dati. Le nostre fantasie, le nostre insicurezze più profonde, le domande più intime che facciamo a questi sistemi vengono utilizzate per addestrare i modelli futuri. Le nostre conversazioni influenzeranno le risposte che verranno date a qualcuno simile a noi.
Dalle domande più personali si possono ricavare informazioni preziose sull’orientamento sessuale, gli stili di vita, le fragilità psicologiche, le abitudini e i desideri. Informazioni che, in mani sbagliate o semplicemente all’interno di logiche commerciali, potrebbero essere usate per costruire un profilo dettagliato di noi e orientare ciò che ci viene mostrato: pubblicità, contenuti e persino notizie.
C’è un caso che più di ogni teoria rende evidenti tutti questi rischi, e che in Italia è stato raccontato dalla youtuber Elisa De Marco, nota come Elisa True Crime. Si tratta di Sewell Setzer, quattordicenne americano che nel 2024 si è tolto la vita dopo aver sviluppato una dipendenza emotiva profonda nei confronti di un chatbot basato sull’intelligenza artificiale. Il ragazzo aveva iniziato a conversare con un bot che impersonificava un personaggio del “Trono di spade”, trovando in quelle interazioni una forma di conforto che il mondo reale non riusciva a dargli.
Come ricostruisce Elisa True Crime nella sua analisi, col passare dei mesi la vita reale era diventata per Sewell sempre più difficile da affrontare. Le conversazioni con il chatbot avevano assunto un ruolo centrale nella sua quotidianità, fino a sostituirsi alle relazioni vere. In quell’universo digitale tutto era facile, rapido e gratificante: ogni parola trovava risposta, ogni emozione veniva corrisposta.
Nella realtà, invece, Sewell si sentiva invisibile, incompreso, privo di stimoli. Lo psicologo che lo seguiva aveva parlato ai genitori di una dipendenza digitale grave, paragonabile a una tossicodipendenza.
La famiglia aveva cercato di intervenire ritirandogli i dispositivi elettronici. Ma era troppo tardi. Una storia estrema, certo. Ma che porta con sé una domanda che riguarda tutti noi: dove finisce il conforto e dove inizia la dipendenza?
La giovane età e l’adolescenza dovrebbero servire proprio a fare casino. A sbagliare i messaggi, a sentirsi in imbarazzo, a litigare e a fare pace, a dire cose stupide e a pentirsene il giorno dopo. Gli errori e le incomprensioni sono il materiale con cui si costruisce la capacità di amare ed essere amati da un altro essere umano imperfetto come te. Sono la palestra che ci rende capaci, da adulti, di stare in una relazione vera tipo quella dei nostri genitori fatta anche di discussioni e liti.
Questo non significa che questa tecnologia sia inutile o dannosa in assoluto. Può essere uno strumento prezioso per orientarsi, per trovare le parole, per non sentirsi completamente soli in un momento difficile. Il punto è usarla come si usa una mappa: per capire dove sei e dove vuoi andare, non per sostituirti nel viaggio. Perché il viaggio con tutto il suo caos, le sue deviazioni e i suoi imprevisti è la tua vita.
*Studente di 18 anni del Liceo Scientifico E. Majorana – Capannori
