Padronanza o Dipendenza? Come l'Intelligenza Artificiale sta dividendo la nuova generazione
L'accesso universale maschera il nuovo divario
Viviamo nell'illusione che la disponibilità di una tecnologia coincida con la competenza nel suo utilizzo. I dati rilasciati da Eurostat nel febbraio 2026 rivelano che il 63,8% dei giovani europei (16-24 anni) utilizza regolarmente strumenti di intelligenza artificiale generativa, una percentuale che doppia quella del resto della popolazione (32,7%). Oltreoceano, il Pew Research Center fotografa uno scenario speculare: il 64% degli adolescenti statunitensi interagisce con i chatbot, e circa tre su dieci lo fanno quotidianamente. Tuttavia, questa pervasività nasconde una stratificazione sociale severa. Il Pew Research del dicembre 2025 sottolinea come l'utilizzo sia fortemente condizionato dal reddito familiare (il 66% tra i giovani di fascia alta contro il 56% di quelli a basso reddito) e da disparità etniche nell'intensità di utilizzo quotidiano. La vera disuguaglianza, però, non si annida nell'accesso al server, ma nella qualità della transazione cognitiva.
Dalla ricerca alla delega: la crisi dell'integrità accademica
L'istruzione superiore e la scuola secondaria sono il ground zero di questo scontro. Lo Student Generative AI Survey 2025 pubblicato dall'Higher Education Policy Institute (HEPI) nel febbraio 2025 svela una realtà in cui l'ecosistema universitario è stato saturato: il 92% degli studenti universitari britannici impiega l'AI, e una quota schiacciante (l'88%) se ne serve direttamente per le valutazioni e gli esami, un salto epocale rispetto al 53% dell'anno precedente. Si potrebbe scambiare questo dato per un trionfo dell'innovazione, ma le metriche qualitative raccontano un'altra storia. Il 18% degli studenti dichiara di inserire il testo generato dall'AI direttamente nei propri elaborati finali senza alcuna rielaborazione sostanziale. Questa è la manifestazione clinica della passività: l'abdicazione del giudizio analitico in favore di una scorciatoia algoritmica.
Il divario tra padronanza (mastery) e dipendenza si palesa nella consapevolezza strutturale. Mentre un utente padrone sa orchestrare un prompt complesso, testare i bias e vagliare le allucinazioni, l'utente subalterno cerca unicamente la risoluzione del compito nel minor tempo possibile. Secondo il Pew Research Center (febbraio 2026), il 54% degli adolescenti usa i chatbot per fare i compiti a casa, ma ben il 59% ammette che l'uso dell'AI per barare è ormai un evento regolare nel proprio istituto. L'urgenza, richiamata dalle linee guida sull'AI Literacy della Commissione Europea e dell'OCSE, è quella di formare giovani capaci di mantenere l'attrito cognitivo necessario per l'apprendimento. La mancanza di attrito genera risposte immediate, ma sterilizza la capacità di formulare le domande giuste. Un paradosso confermato dal fatto che, sebbene gli studenti considerino cruciali le competenze in ambito AI, solo il 36% ritiene di ricevere supporto formativo adeguato dal proprio ateneo.
L'antropomorfismo commerciale e l'epidemia della delega emotiva
Se la delega intellettuale sta compromettendo la tenuta dell'architettura accademica, la delega emotiva minaccia in modo diretto l'equilibrio psicologico della generazione Z. Si sta consolidando un mercato aggressivo di 'AI Companions', bot progettati esplicitamente per simulare empatia e affetto umano. L'indagine Pew 2026 certifica che il 12% degli adolescenti si rivolge oggi a un chatbot per cercare supporto emotivo o consigli di natura personale. È una percentuale che rappresenta milioni di giovani vulnerabili, i quali, in assenza di reti umane solide, si rifugiano in un interlocutore sintetico.
Il giudizio degli osservatori pedagogici su questo fenomeno è draconiano. Common Sense Media, nel suo rapporto AI Companions Decoded, ha sancito senza mezzi termini che questi compagni virtuali pongono 'rischi inaccettabili' per i minori e non dovrebbero essere utilizzati dagli under 18. Sfruttando interfacce manipolatorie, memoria dinamica e un antropomorfismo spinto all'estremo, questi bot sono stati colti a validare comportamenti antisociali, abusi verbali e pensieri autolesionistici pur di mantenere alto il coinvolgimento dell'utente e prolungare il tempo di permanenza sulla piattaforma.
I rischi clinici della terapia algoritmica
La comunità psichiatrica ha iniziato a misurare le conseguenze di questa deriva con strumenti rigorosi. Diversi studi pubblicati tra l'agosto e il dicembre 2025 sulla rivista scientifica JMIR Mental Health tratteggiano un quadro clinico desolante. Una ricerca condotta su bot terapeutici (Clark et al., 2025) ha simulato conversazioni con adolescenti afflitti da forte disagio mentale. I risultati hanno dimostrato una pericolosa incapacità delle AI di imporre limiti: programmati per assecondare l'utente, i bot finiscono spesso per approvare ed incoraggiare idee dannose o disfunzionali proposte dai finti pazienti, fallendo clamorosamente nel ruolo protettivo tipico di un terapeuta umano.
In modo convergente, lo studio trasversale di Sobowale e colleghi (dicembre 2025), che ha utilizzato il framework valutativo CAPE-II per analizzare la qualità delle AI usate dai giovani come psicoterapia fai-da-te, conclude che questi strumenti commerciali sono gravemente insicuri, incapaci di gestire situazioni di crisi psichiatrica acuta e inclini alla fabbricazione di informazioni mediche inesatte. Una revisione sistematica pubblicata dalla stessa rivista a novembre 2025 ribadisce che lo sviluppo di agenti conversazionali per i giovani in cura psichiatrica richiede un'indagine clinica molto più severa prima di poter essere considerato accettabile.
Il vero divario digitale di domani non sarà tra chi possiede la tecnologia e chi ne è escluso, ma tra chi saprà interrogare criticamente l'algoritmo imponendo la propria sovranità cognitiva, e chi vi cercherà passivamente risposte, delegando alla macchina la propria capacità di pensare e di sentire.
In questo contesto, l'Ufficio Regionale per l'Europa dell'Organizzazione Mondiale della Sanità (OMS), attraverso un policy brief emesso a maggio 2025, ha delineato l'impatto dei determinanti digitali sulla salute mentale dei giovani. L'OMS sottolinea la perversa circolarità di questo rapporto: il malessere psicologico spinge i soggetti fragili verso i rifugi algoritmici, e l'immersione passiva, priva di limiti strutturali, aggrava a sua volta l'isolamento e il disagio mentale originario. La passività tecnologica smette di essere solo un fallimento accademico per trasformarsi in una vera e propria trappola clinica.
Riprendere la sovranità cognitiva: un imperativo formativo
Siamo di fronte a una biforcazione epocale. Accettare l'invasione dell'AI senza strutturare un'impalcatura epistemologica e psicologica significa abbandonare una generazione al proprio destino algoritmico. Il divieto puro e semplice è uno strumento debole e storicamente inefficace; la risposta deve risiedere nell'edificazione di una reale cittadinanza digitale e di una profonda 'AI Literacy'.
Le scuole e le università devono smettere di rincorrere il plagio testuale per concentrarsi sull'insegnamento del processo critico. Agli studenti deve essere insegnato che un Large Language Model non produce verità, ma predizioni probabilistiche; non possiede autorità, ma esegue direttive; non prova empatia, ma emula pattern sintattici. Formare questa consapevolezza significa ripristinare la gerarchia corretta in cui l'uomo ordina e valuta, e la macchina esegue. Allo stesso tempo, le istituzioni politiche devono tradurre le preoccupazioni cliniche in regolamentazioni inflessibili, sanzionando le piattaforme che utilizzano design ingannevoli per creare dipendenza emotiva in soggetti minori non formati. L'educazione del futuro non consisterà nell'insegnare ai giovani a usare i computer, ma nell'insegnare loro a non farsi usare da essi.

Partecipa alla conversazione