Quando l'AI Sbaglia: Perché le Aziende Non Possono Più Usare l'Algoritmo come Scaricabarile?
L'illusione del collaboratore autonomo e il paradosso della convenienza
L'era dell'automazione cognitiva ha introdotto nei processi aziendali una dinamica tanto affascinante quanto insidiosa. Da un lato, l'Intelligenza Artificiale viene celebrata nei consigli di amministrazione come la panacea per ogni inefficienza operativa: un lavoratore instancabile, apparentemente privo di bias, capace di processare moli titaniche di dati in frazioni di secondo. Ma c'è un lato oscuro in questa narrazione trionfalistica, che si manifesta puntualmente non appena il sistema commette un errore fatale. In quel preciso istante, l'infallibile "co-pilota" aziendale viene improvvisamente retrocesso a "terza parte imprevedibile". L'algoritmo diventa il capro espiatorio perfetto, una scatola nera dietro la quale il management tenta maldestramente di nascondere la propria colpa decisionale.
Questo fenomeno di "scaricabarile algoritmico" non è solo un vezzo retorico per placare le pubbliche relazioni, ma una vera e propria strategia difensiva che le corporazioni stanno cercando di istituzionalizzare. Si pretende di godere dei massimi benefici della scalabilità illimitata senza doverne sopportare i rischi legali ed etici correlati. Il paradosso è evidente: quando l'AI ottimizza i profitti commerciali o riduce drasticamente i costi del personale, il merito è ascritto in toto alla brillante lungimiranza strategica dei vertici aziendali; quando invece l'AI discrimina un candidato in fase di assunzione, nega ingiustamente un mutuo vitale o fornisce informazioni fuorvianti a un consumatore, la colpa è improvvisamente del software, del "glitch", della natura insondabile e imperscrutabile del machine learning.
Eppure, la giurisprudenza internazionale sta iniziando a smantellare sistematicamente questa illusione di impunità automatizzata. Il caso più emblematico, e per certi versi grottesco, della recente storia legale è quello che ha coinvolto la compagnia aerea Air Canada all'inizio del 2024. Un cittadino, Jake Moffatt, aveva consultato il chatbot ufficiale del sito web della compagnia per ottenere informazioni urgenti sulle tariffe agevolate in caso di lutto familiare. Il chatbot, vittima di un'allucinazione tipica dei modelli linguistici non adeguatamente supervisionati, ha fornito indicazioni totalmente errate, inducendo l'utente ad acquistare un biglietto a prezzo pieno con la falsa e inesistente promessa di un rimborso retroattivo da richiedere entro 90 giorni.
Quando Moffatt ha legittimamente richiesto quanto gli era stato garantito per iscritto dall'assistente virtuale, l'azienda si è rifiutata di onorare l'impegno. Ma è in sede legale che Air Canada ha tentato una mossa difensiva senza precedenti: ha sostenuto davanti al tribunale che il chatbot dovesse essere considerato una "entità giuridica separata responsabile delle proprie azioni". Il Civil Resolution Tribunal della British Columbia, per mano del giudice Christopher Rivers, ha respinto categoricamente questa difesa definendola una "prospettazione notevole" (a remarkable submission). La sentenza ha stabilito un principio tanto banale quanto fondamentale: un chatbot, per quanto interattivo e basato su intelligenza artificiale, è solo una parte integrante del sito web dell'azienda. Non fa alcuna differenza se l'informazione provenga da una noiosa pagina statica HTML o da un sofisticato sistema algoritmico: l'azienda è e resta l'unica responsabile per le comunicazioni erogate ai propri clienti.
Questo precedente giurisprudenziale, per quanto emanato da una corte per controversie civili di modesta entità economica, ha generato un'onda d'urto nel mondo del diritto d'impresa globale. Ha messo a nudo la fragilità logica di un modello di business che tenta di esternalizzare la responsabilità morale e legale a mere linee di codice informatico. Non si può assumere un algoritmo, trarne un vantaggio economico diretto su larga scala, e poi pretendere di poterlo metaforicamente "licenziare per giusta causa" quando sbaglia, assolvendo di fatto i dirigenti che ne hanno deliberato l'acquisizione e l'implementazione senza adeguati controlli di sicurezza.
La fine dell'alibi: la Direttiva Europea e la presunzione di causalità
Fino a ieri, il grande scudo protettivo delle aziende era rappresentato dal pesante onere della prova unito all'intrinseca opacità tecnologica dei sistemi di apprendimento automatico. Se un cittadino subiva un danno da un sistema automatizzato – si pensi a un tragico errore medico causato da un software diagnostico predittivo o a un licenziamento automatizzato basato su metriche produttive fallaci – la vittima doveva dimostrare esattamente come, dove e perché l'algoritmo avesse fallito. In un ecosistema dominato da reti neurali profonde e sistemi "black box", dove persino gli sviluppatori originari faticano a tracciare matematicamente il percorso logico che ha condotto a una specifica decisione isolata, questa richiesta legale si traduceva nei fatti in una probatio diabolica. Le aziende potevano agevolmente trincerarsi dietro la complessità tecnica del modello, lasciando le vittime isolate, frustrate e prive di reale tutela giuridica.
La nuova e rivoluzionaria direttiva europea stravolge questa dinamica introducendo un meccanismo giuridico devastante per i difensori dello status quo: la "presunzione di causalità" (o presunzione di nesso causale). Se un'azienda utilizza un sistema AI classificato dalla legge come ad alto rischio e non rispetta pedissequamente determinati obblighi normativi – come garantire una supervisione umana continua e adeguata, o assicurare la trasparenza e la pulizia da bias dei dati di addestramento – e se si verifica un danno ragionevolmente collegabile a quel sistema tecnologico, il giudice presumerà per legge che la colpa sia direttamente dell'azienda stessa. Spetterà quindi al management l'arduo, se non impossibile, compito di dimostrare il contrario, invertendo di fatto l'onere probatorio. Si tratta di un ribaltamento strutturale epocale che cancella per sempre l'alibi dell'errore tecnologico inevitabile o del caso fortuito informatico.
In aggiunta, la direttiva conferisce ai tribunali il potere coercitivo di ordinare alle aziende la cosiddetta "disclosure", ovvero la rivelazione forzata e dettagliata delle informazioni tecniche, dei log operativi e dei registri di funzionamento dell'AI sospettata di aver causato il danno. Non ci si potrà più nascondere dietro il comodo paravento della proprietà intellettuale o del segreto industriale per occultare una negligenza palese nella fase di progettazione o nel monitoraggio continuo del sistema. L'automazione cessa definitivamente di essere una zona d'ombra extraterritoriale del diritto d'impresa, per diventare un'infrastruttura di cui l'azienda deve rispondere pubblicamente, esattamente come risponde in solido della sicurezza dei propri macchinari fisici in una fabbrica o della stabilità strutturale dei propri edifici amministrativi.
"L'intelligenza artificiale non è un'entità giuridica dotata di libero arbitrio a cui poter delegare la colpa aziendale; è uno strumento di cui il decisore umano deve assumersi interamente e preventivamente il rischio strategico e legale."
Chi decide, chi firma e l'inevitabilità della governance umana
Alla luce di queste stringenti evoluzioni normative e giurisprudenziali, arriviamo al nucleo politico e organizzativo del problema: la crisi della governance contemporanea e l'assoluta inevitabilità del fattore umano. Chi decide davvero all'interno di un'azienda sempre più guidata dai dati e dall'analisi automatizzata? Chi appone, fisicamente o metaforicamente, la firma in calce alle decisioni critiche generate e pre-confezionate dall'apprendimento automatico?
La tentazione cronica di molte organizzazioni, spaventate dalla lentezza umana ma ansiose di coprirsi le spalle, è quella di creare un finto livello di supervisione, il cosiddetto "human in the loop" (l'umano nel ciclo decisionale), che in realtà agisce come un mero passacarte istituzionale. Un dipendente a cui viene chiesto di revisionare e approvare manualmente centinaia di complesse decisioni algoritmiche al giorno finirà inesorabilmente per sviluppare quello che gli psicologi del lavoro e gli ergonomi cognitivi chiamano "automation bias": la naturale, quasi neurologica, tendenza a fidarsi ciecamente del responso della macchina, abdicando per stanchezza cronica o presunzione di inferiorità intellettuale al proprio insostituibile giudizio critico. Ma la giurisprudenza emergente e la futura regolamentazione europea ci dicono a chiare lettere che questo "rubber-stamping" – l'approvazione formale, frettolosa e acritica – non salva affatto l'azienda dalla scure della responsabilità legale. La supervisione richiesta dal legislatore deve essere sostanziale, profondamente informata e, soprattutto, dotata del potere organizzativo reale e incoraggiato di ribaltare la decisione della macchina senza temere ritorsioni sulla produttività personale.
La verità scomoda per molti dirigenti d'azienda è che l'adozione su larga scala dell'Intelligenza Artificiale non diminuisce minimamente il bisogno di leadership forte, ma al contrario lo amplifica in modo esponenziale, lo rende tecnicamente più complesso e lo carica di responsabilità inédite. Implementare l'automazione in un delicato flusso di lavoro non significa semplicemente comprare un software; significa, di fatto, riprogettare l'intera architettura delle responsabilità aziendali future. Ogni singola riga di codice che prende una decisione con un impatto sulla vita di un terzo verso l'esterno è, a tutti gli effetti legali e morali, un mandato fiduciario vincolante che l'azienda conferisce in toto allo strumento tecnologico. Pertanto, chi firma il contratto multimilionario di fornitura del software, chi approva il suo frettoloso rilascio in ambiente di produzione per battere i concorrenti sul tempo, e chi ne definisce al ribasso i parametri operativi di sicurezza, sta di fatto pre-firmando in bianco ogni singola azione, lecita o illecita, che quel sistema compirà nel mondo reale da quel momento in poi.
Questo passaggio storico impone una vera e propria rivoluzione organizzativa interna. Le aziende più all'avanguardia stanno già integrando figure di vertice come il Chief AI Officer, non più inteso come un mero supervisore tecnico per nerd o un'estensione gerarchica del dipartimento IT, ma come un manager del rischio a tutto tondo. Questa figura viene sempre più parificata per importanza strutturale, peso politico e responsabilità legale al Chief Risk Officer o al Chief Financial Officer. Questa radicale evoluzione dimostra inconfutabilmente che il controllo sistemico dell'Intelligenza Artificiale non è, e non è mai stato, un banale problema di programmazione informatica, ma un vitale tema di governance aziendale suprema. Quando un'AI stabilisce i prezzi in modo occultamente predatorio violando di fatto le norme antitrust internazionali, o quando un efficientissimo sistema di screening dei curriculum esclude sistematicamente una determinata minoranza etnica o di genere, l'impatto non si limita a una corretta formattazione del codice sorgente. Si traduce implacabilmente in multe sanzionatorie milionarie, danni d'immagine irreparabili nel lungo termine e devastanti azioni legali collettive class-action. Prepararsi adeguatamente a questo scenario significa mappare preventivamente ogni singolo algoritmo utilizzato, valutarne il grado di reale autonomia e stabilire con esattezza chirurgica chi, all'interno dell'organigramma formale, detiene l'autorità ultima e incontestabile per "staccare la spina" alla macchina quando i parametri di sicurezza vengono superati. In totale mancanza di questa catena di comando chiara, definita e documentalmente inattaccabile, l'automazione smette istantaneamente di essere uno strategico vantaggio competitivo e si trasforma, senza appello, in una bomba a orologeria innescata direttamente nel cuore operativo dell'azienda.
In conclusione, l'automazione algoritmica non diventerà mai un salvifico scaricabarile legale per un management pigro, per il semplice e inattaccabile motivo che la responsabilità, in qualsiasi sistema avanzato di diritto civile ed economico, è intimamente e indissolubilmente legata all'esercizio del potere decisionale e all'estrazione spietata del valore. Finché saranno esclusivamente le aziende a trarre un tangibile e misurabile vantaggio economico o competitivo dalla disumana efficienza dell'intelligenza artificiale, saranno le stesse identiche aziende a doverne pagare fino all'ultimo centesimo gli inevitabili errori sul campo. E quando il prossimo algoritmo andrà catastroficamente fuori controllo, danneggiando la vita lavorativa di un cittadino o prosciugando le finanze di un consumatore, nessuna corte occidentale accetterà la patetica e pietosa scusa che "la macchina ha fatto tutto da sola, a nostra insaputa". La macchina, alla fine del suo imperscrutabile calcolo matematico, ha fatto esattamente e unicamente ciò che un decisore umano in carne ed ossa le ha incautamente e colpevolmente permesso di fare.

Partecipa alla conversazione