Le decisioni che plasmano la nostra vita sono ancora umane?

MANI: Il teatro dell'autonomia perduta

L'erosione del libero arbitrio tra screening, scoring e verdetti automatizzati.

Fonte: Redazione Politiche | Data: 9 Marzo 2026

WAKE UP THE WORLD.

La presunzione di controllo è il più tenace dei feticci contemporanei. L'uomo moderno, avvolto nella rassicurante architettura delle garanzie democratiche e dei diritti civili, continua ad accarezzare l'illusione di essere il dominus assoluto del proprio destino sociale ed economico. Crediamo fermamente che, dietro l'approvazione di un mutuo, l'assunzione per un nuovo impiego, l'erogazione di un sussidio statale o la priorità in una lista d'attesa ospedaliera, vi sia ancora uno sguardo umano, capace di contestualizzare, comprendere ed empatizzare. Ma questa narrativa rassicurante si sgretola non appena analizziamo la reale anatomia dei processi organizzativi odierni. La verità è che il perimetro della nostra vita è sempre più delimitato da recinti matematici invisibili. Quando ci domandiamo se le decisioni ancora umane esistano davvero, la risposta esige una disamina spietata di ciò che chiamiamo "processo decisionale".

L'architettura dell'invisibile: Screening, Ranking, Scoring e Decisione

Per comprendere la portata dell'espropriazione del nostro libero arbitrio, dobbiamo abbandonare l'idea che l'intelligenza artificiale sia un monolite che emette sentenze definitive in autonomia. La realtà è molto più subdola: l'esautorazione dell'uomo avviene per gradi, frammentando la deliberazione in quattro fasi distinte che predeterminano inesorabilmente il risultato finale. La prima fase è lo screening. Si tratta del confine, della barriera invisibile che separa chi è degno di essere valutato da chi non esiste affatto. Nei moderni dipartimenti di risorse umane, i software di Applicant Tracking System (ATS) analizzano migliaia di curriculum alla ricerca di corrispondenze semantiche. Se l'algoritmo ti esclude in questa fase, il selezionatore umano non saprà mai nemmeno del tuo passaggio. L'esclusione è assoluta, igienica, priva di attrito emotivo.

Subito dopo, per coloro che superano la barriera, interviene il ranking. Ordinare la realtà significa, di fatto, modellarla. L'ordinamento imposto dal ranking decisioni AI è la gerarchia della priorità. Che si tratti dei risultati di un motore di ricerca per la verifica dei precedenti, della lista dei pazienti da chiamare per un follow-up, o della coda di messaggi segnalati a un moderatore di contenuti, la posizione in lista determina l'esito. L'essere umano, intrinsecamente affetto da limitatezza cognitiva e fatica decisionale, tende fisiologicamente a concentrarsi sulle primissime opzioni proposte dal sistema. Il ranking non elimina le opzioni, ma le nasconde nella periferia dell'attenzione umana, manipolando di fatto l'esito senza mai assumere la forma di un imperativo.

Il terzo livello, forse il più pervasivo e profondo dal punto di vista filosofico, è lo scoring. In questo stadio assistiamo alla quantificazione dell'anima, alla trasformazione della biografia umana in una probabilità statistica. L'individuo viene scomposto in migliaia di data point comportamentali, finanziari e sociali, per essere ricomposto sotto forma di un punteggio di rischio. Non si valuta più ciò che una persona ha fatto, ma ciò che la matematica prevede farà. Il punteggio di credito (come il FICO score negli Stati Uniti), l'indicizzazione del rischio assicurativo tramite la telematica dell'automobile, o il livello di "fedeltà aziendale" calcolato per arginare il turnover: lo scoring è un'etichetta numerica incollata sulla fronte del cittadino, impossibile da cancellare e complessa da contestare.

Infine, giungiamo alla decisione vera e propria. L'atto conclusivo in cui, secondo la dottrina aziendale, risiede la garanzia umana. L'azienda ci rassicura affermando che l'AI supporto decisionale si limita a consigliare, mentre la scelta spetta al professionista in carne ed ossa. È una menzogna confortevole. Gli studi psicologici sull'automation bias (il pregiudizio di automazione) dimostrano sistematicamente che l'operatore umano, di fronte a una macchina che esprime un verdetto supportato da milioni di calcoli, si adegua quasi sempre. Contraddire l'algoritmo richiede uno sforzo cognitivo immenso, un'assunzione di rischio personale e una prolissa giustificazione burocratica. Se l'umano segue la macchina e sbaglia, la colpa è del sistema; se contraddice la macchina e sbaglia, la colpa è sua. In questo teatro dell'assurdo, l'algoritmo decide silenziosamente, mentre l'uomo firma, ridotto a uno scudo biologico contro le responsabilità legali.

Anatomia della delega: i gangli vitali della società




Esplorando i vari settori, la mappa di questa delega si rivela nella sua allarmante estensione. Nel settore del credito e delle assicurazioni, la storica figura del direttore di filiale, capace di valutare il "carattere" e la progettualità di un imprenditore, è stata sostituita da modelli predittivi inappellabili. Il passaggio dai dati finanziari tradizionali all'uso di alternative data — come le abitudini di spesa online, i modelli di geolocalizzazione o persino le interazioni sui social network — ha trasformato lo scoring del credito in un sistema di sorveglianza comportamentale. Le assicurazioni, dal canto loro, calcolano i premi sanitari o automobilistici in tempo reale, parametrizzando ogni singolo respiro o frenata brusca. Il cittadino è costantemente audito, il suo futuro finanziario precalcolato da entità invisibili.

Ma è nel welfare e nell'amministrazione pubblica che lo scoring algoritmico ha mostrato il suo volto più crudele. Il caso emblematico è quello del sistema SyRI (System Risk Indication) nei Paesi Bassi. Sviluppato per individuare potenziali frodi nel sistema di previdenza sociale, SyRI aggregava enormi moli di dati governativi, profilando i cittadini. L'algoritmo, tuttavia, è stato impiegato prevalentemente nei quartieri a basso reddito e con alta densità di minoranze, traducendo un pregiudizio socio-economico in una caccia alle streghe algoritmica. Solo nel 2020, il tribunale dell'Aia ha interrotto il programma, stabilendo che violasse l'Articolo 8 della Convenzione Europea dei Diritti dell'Uomo riguardante il rispetto della vita privata. SyRI non era un "supporto"; era un giudice accusatore che invertiva l'onere della prova, costringendo i più deboli a dimostrare alla macchina di non essere colpevoli di una frode futura calcolata statisticamente.

La sanità, dove l'etica medica dovrebbe rappresentare il baluardo definitivo dell'umanesimo, non è immune. L'illusione che i dati medici siano intrinsecamente neutri è crollata inesorabilmente con il caso Optum, rivelato nel 2019 dalla rivista Science. Un algoritmo predittivo, utilizzato su centinaia di milioni di pazienti negli Stati Uniti per identificare chi necessitasse di cure extra per patologie complesse, penalizzava sistematicamente i pazienti neri. Il motivo risiedeva in un banale ma letale errore di progettazione: l'algoritmo usava la spesa sanitaria passata come parametro per misurare il reale "bisogno di salute". Poiché i pazienti neri, a causa di disuguaglianze sistemiche storiche, spendevano mediamente di meno per le cure mediche rispetto ai bianchi altrettanto malati, il sistema deduceva falsamente che fossero più sani. Un calcolo freddo ha negato cure preventive a migliaia di persone, dimostrando come lo scoring sanitario possa istituzionalizzare e codificare le peggiori discriminazioni del passato sotto l'egida dell'oggettività scientifica.

Infine, nel mondo del lavoro e della moderazione dei contenuti, l'asimmetria di potere raggiunge il suo apice. I lavoratori dipendenti della logistica e dei servizi di consegna vedono le proprie prestazioni misurate al millisecondo, con algoritmi che decidono chi riceverà il prossimo turno in base a uno scoring di produttività spietato. Parallelamente, nel dominio pubblico dell'informazione globale, la moderazione è quasi interamente affidata a modelli di intelligenza artificiale. Centinaia di milioni di post e video vengono cancellati preventivamente, le voci silenziate e i profili oscurati. Il team di revisione umana, quando esiste, interviene solo come estrema ratio, gestendo una frazione microscopica dei ricorsi. Il tribunale della libera espressione è stato appaltato a reti neurali che non comprendono l'ironia, il contesto politico o il diritto di cronaca, applicando una censura cieca dettata unicamente dalle regole del contenimento del rischio aziendale.

"Non stiamo semplicemente automatizzando i processi burocratici per una questione di efficienza; stiamo codificando i pregiudizi del passato nei destini del futuro, nascondendo l'abdicazione della responsabilità umana dietro la rassicurante e insindacabile oggettività dei numeri."

L'urgenza di rivendicare la firma

La delega della decisione all'algoritmo non è un incidente di percorso dello sviluppo tecnologico, ma un preciso disegno di deresponsabilizzazione organizzativa. Separando nettamente le fasi di screening, ranking e scoring dalla decisione finale formale, istituzioni e corporazioni si garantiscono uno scudo giuridico ed etico. Finché l'ultimo click appartiene a un operatore umano stanco e sottopagato, il sistema può auto-assolversi definendosi un semplice supporto. Ma la realtà è inequivocabile: l'essenza stessa della scelta ci è stata sottratta. Per invertire questa rotta, dobbiamo esigere trasparenza sull'intera architettura algoritmica, decostruendo il mito dell'imparzialità dei dati e reintroducendo l'attrito del dubbio umano in ogni singolo snodo vitale della nostra società. Solo allora potremo dirci liberi dal determinismo del codice.

Nota di trasparenza editoriale: Questa analisi è stata redatta con il supporto di intelligence algoritmica per la verifica incrociata dei precedenti legali e scientifici (tra cui le fonti sul caso olandese SyRI del 2020 e lo studio indipendente sull'algoritmo sanitario Optum del 2019), preservando rigorosamente l'integrità, il tono e la direzione intellettuale originaria dell'autore.