Perché vediamo proprio quel contenuto? L'architettura segreta degli algoritmi e le regole del feed
Lo vediamo perché un sistema di raccomandazione algoritmica ha calcolato matematicamente che quella specifica immagine, video o inserzione massimizzerà il nostro tempo di permanenza, incrociando i nostri dati comportamentali passati con gli obiettivi commerciali degli inserzionisti.
Il pedaggio dell'attenzione giovanile e le logiche di profilazione
L'esperienza digitale quotidiana non è un flusso casuale di eventi, ma un ambiente iper-strutturato in cui ogni scorrimento è predeterminato. I sistemi di raccomandazione valutano migliaia di segnali — dal tempo di sosta su un frame video alla cronologia delle interazioni — per decidere cosa mostrare la frazione di secondo successiva. Secondo un sondaggio del Pew Research Center, condotto alla fine del 2024 su un campione rappresentativo di adolescenti statunitensi (13-17 anni), quasi la metà dei giovani dichiara di essere online "quasi costantemente" [1]. Nello specifico, il 63% degli adolescenti accede a TikTok con frequenza quotidiana, e quasi nove su dieci utilizzano YouTube ogni singolo giorno [1]. Questa estrema fedeltà non è accidentale. Le architetture dei social network utilizzano modelli predittivi avanzati per selezionare contenuti in grado di suscitare micro-reazioni emotive. Che si tratti di indignazione, ilarità o senso di appartenenza, l'obiettivo primario rimane la retention, ovvero trattenere l'utente. Testate indipendenti e rapporti di policy come quelli analizzati da Euractiv evidenziano come questi stessi algoritmi, pur di mantenere alta l'attenzione, finiscano spesso per amplificare contenuti fortemente polarizzanti o teorie del complotto, spingendoli verso fasce demografiche vulnerabili [1]. La dieta mediatica algoritmica è, di fatto, ottimizzata per il coinvolgimento, non per l'obiettività o per la salute mentale.
Il confine sottile tra personalizzazione e inganno
Quando i meccanismi di iper-personalizzazione vengono sfruttati commercialmente senza freni, il rischio di derive illecite diventa elevato. Negli Stati Uniti, la Federal Trade Commission (FTC) ha intensificato in modo aggressivo le proprie azioni legali contro le reti di marketing e le truffe online che usano gli algoritmi per individuare bersagli perfetti. Tra il 2024 e il 2025, le azioni dell'autorità hanno smascherato molteplici schemi di finto "business coaching". L'FTC ha rilevato, ad esempio, che la presunta opportunità di business "Ascend Ecom" ha frodato i consumatori per almeno 25 milioni di dollari, promettendo profitti passivi irrealistici grazie a fantomatici e-commerce guidati dall'intelligenza artificiale [1]. Un'altra operazione, denominata "FBA Machine", è costata ai consumatori oltre 15,9 milioni di dollari basandosi su garanzie fraudolente [1]. Gli algoritmi pubblicitari dei social media si rivelano veicoli eccezionalmente efficaci per queste truffe, poiché identificano con precisione chirurgica gli utenti in cerca di indipendenza finanziaria o particolarmente propensi a credere a promesse di arricchimento rapido. Le inserzioni ingannevoli non compaiono a caso: appaiono esattamente nei feed di coloro che i modelli statistici ritengono più convertibili.
"L'accesso indipendente ai dati algoritmici non è una mera questione tecnica: è ormai un pilastro fondamentale per garantire la sicurezza pubblica e la trasparenza democratica nell'era digitale."
L'estrema opacità di queste "scatole nere" ha generato una reazione istituzionale senza precedenti. In Europa, la Commissione Europea sta utilizzando le disposizioni del Digital Services Act (DSA) per smantellare i muri eretti dalle Big Tech. A fine ottobre 2025, la Commissione ha stabilito, in via preliminare, che colossi come Meta (per Facebook e Instagram) e TikTok hanno violato i rigorosi obblighi di trasparenza previsti dal regolamento [1]. Il nodo cruciale è il negato accesso ai dati pubblici per i ricercatori indipendenti, essenziale per valutare l'effettiva esposizione degli utenti a contenuti illegali o dannosi. Le sanzioni per tali violazioni sono tutt'altro che simboliche: il DSA prevede multe che possono arrivare fino al 6% del fatturato annuo globale di un'azienda [1]. Il motivo per cui un particolare video ci viene mostrato oggi non è più soltanto un segreto industriale protetto da brevetto, ma una materia di compliance legislativa su cui le autorità vigilano rigorosamente.

Partecipa alla conversazione