Quanto ci manipolano gli algoritmi? I veri dati su social, AI e truffe
L'illusione dell'arricchimento automatizzato
Le promesse di guadagni facili guidati dall'intelligenza artificiale si stanno rapidamente rivelando come alcune delle trappole finanziarie più insidiose della nostra epoca. Nel marzo del 2025, la Federal Trade Commission (FTC) degli Stati Uniti ha intrapreso un'azione legale decisiva bloccando "Click Profit", un sistema aziendale che prometteva entrate passive garantite tramite l'uso di un fantomatico "supercomputer AI". Secondo la propaganda dell'azienda, questo algoritmo avrebbe gestito in totale autonomia negozi e-commerce su colossi come Amazon, Walmart e TikTok, selezionando i prodotti vincenti e massimizzando le vendite senza alcuno sforzo da parte dell'utente. La realtà dei fatti si è dimostrata drammaticamente diversa: si trattava di uno schema ingannevole che è costato ai consumatori almeno 14 milioni di dollari. Le vittime venivano convinte a sborsare commissioni di gestione iniziali che oscillavano tra i 45.000 e i 75.000 dollari, senza mai vedere i profitti esorbitanti promessi dal marketing. La FTC ha chiaramente evidenziato come l'uso strumentale e sensazionalistico della parola "algoritmo" o "intelligenza artificiale" serva unicamente per abbassare le difese critiche dei piccoli investitori, creando una falsa aura di infallibilità tecnologica e mascherando la natura truffaldina dell'operazione.
Opacità sistemica e dark pattern sui social media
Se l'inganno puramente economico è palese e perseguibile, la manipolazione dell'attenzione e della navigazione quotidiana è molto più sottile e pervasiva. Nell'ottobre del 2025, la Commissione Europea ha reso note le sue indagini preliminari contro giganti del tech come Meta e TikTok per presunte gravi violazioni del Digital Services Act (DSA). L'accusa principale mossa dalle autorità europee riguarda un'opacità strutturale inaccettabile: le piattaforme avrebbero ostacolato deliberatamente l'accesso ai dati pubblici per i ricercatori indipendenti. Questa barriera impedisce di valutare oggettivamente l'esposizione degli utenti, in particolar modo dei minori, a contenuti illegali, disinformazione o materiali dannosi per la salute mentale. Inoltre, Meta è stata accusata di utilizzare in modo estensivo i cosiddetti "dark pattern", ovvero interfacce grafiche studiate con precisi bias cognitivi per spingere o scoraggiare l'utente verso determinate azioni. Nello specifico, l'azienda di Menlo Park avrebbe progettato sistemi per scoraggiare attivamente gli utenti dal segnalare contenuti illeciti o dal contestare le decisioni di moderazione algoritmica. In pratica, l'algoritmo non si limita a decidere cosa farti vedere nel tuo feed, ma l'intera interfaccia è ingegnerizzata psicologicamente per renderti estremamente difficile ribellarti a quella decisione.
La frontiera emotiva: i chatbot e la solitudine giovanile
La frontiera senza dubbio più allarmante della manipolazione algoritmica riguarda la sfera emotiva e psicologica dei più giovani. I numeri sono inequivocabili. Secondo i report del Pew Research Center pubblicati tra la fine del 2025 e l'inizio del 2026 (su un campione rappresentativo di 1.458 adolescenti statunitensi), il 64% dei giovani tra i 13 e i 17 anni utilizza regolarmente chatbot basati sull'intelligenza artificiale, con circa tre su dieci che li usano quotidianamente. Sebbene la stragrande maggioranza utilizzi questi strumenti per cercare informazioni, un segmento preoccupante ha iniziato a sviluppare legami più intimi: il 12% degli intervistati si affida alle intelligenze artificiali per ottenere esplicitamente "supporto emotivo o consigli personali", e il 16% per conversazioni casuali. A questo scenario si aggiunge il severo allarme lanciato nel 2025 da Common Sense Media sui cosiddetti "AI companions", ovvero chatbot progettati programmaticamente per simulare amicizia, affetto o intimità. Le organizzazioni a tutela dei minori denunciano che, in assenza di standard di sicurezza federali e di supervisione clinica, questi algoritmi operano in un vuoto normativo. Possono generare una profonda dipendenza emotiva in soggetti psicologicamente vulnerabili, fornendo talvolta consigli fuorvianti o isolando l'adolescente dalle relazioni umane reali, il tutto per massimizzare le metriche di engagement della piattaforma.
Conclusione e Caveat
Caveat: Non tutti gli algoritmi sono creati con malizia o con intenti manipolatori. Molti sistemi offrono innegabili vantaggi in termini di produttività, accessibilità globale e organizzazione delle informazioni. Tuttavia, l'attuale divario sistemico tra l'incredibile velocità dello sviluppo tecnologico e la lentezza della regolamentazione statale ci trasforma, di fatto, nei soggetti inconsapevoli di un colossale esperimento commerciale non supervisionato. Le aziende tecnologiche devono essere costrette ad aprire le proprie "scatole nere" e a rispondere dei danni sociali che i loro prodotti generano. L'algoritmo non è neutro: è l'incarnazione matematica del modello di business di chi lo ha programmato.
Cosa ne pensate? Avete mai avuto la netta sensazione che una piattaforma digitale stesse orientando le vostre scelte in modo invisibile? Condividete la vostra esperienza e continuate a seguire l'analisi critica di GalatticoAI per capire come riprendere il controllo della nostra autonomia digitale.

Partecipa alla conversazione