Un agente AI redige un contratto. L'agente — schierato da uno studio legale, autonomo, integrato nel flusso di lavoro — inserisce una clausola errata. Non lo fa per malizia: non ne è capace. Lo fa perché il suo modello di linguaggio ha frainteso il contesto, ha hallucinated un riferimento normativo, ha interpolato tra due framework incompatibili. Il cliente firma. La clausola regge per sei mesi. Poi il contratto viene impugnato. Il cliente perde due milioni di euro. La domanda che segue è quella che nessun framework normativo vigente sa rispondere in modo definitivo: chi paga?
Questa non è una domanda ipotetica. Gli AI agents sono in produzione — in ambito legale, finanziario, HR, contrattuale — da mesi. Non sono assistenti che propongono bozze per la revisione umana. Sono sistemi che eseguono: firmano, inviano, processano, decidono. La responsabilità per le loro decisioni errate — chi è liable quando un AI agent fa danni in una transazione autonoma — è una delle questioni legali più aperte e più urgenti del 2026. E l'EU AI Act, che entra in piena applicazione ad agosto, non la chiude. La sposta.
Key Points
- Gli AI agents sono già in produzione in ambito legale, finanziario e HR — ma nessun framework legale vigente attribuisce con chiarezza la responsabilità per i loro errori.
- Microsoft ha lanciato l'Agent Governance Toolkit ad aprile 2026 precisamente perché il vuoto normativo sulla liability degli agenti è reale e sempre più costoso.
- L'EU AI Act entra in piena applicazione ad agosto 2026 e obbliga le aziende a ripensare la governance degli agenti, ma non risolve il nodo della liability per decisioni errate.
- Esistono tre livelli di liability potenziale — sviluppatore, deployer, utente finale — e nessun paese vuole essere il primo ad attribuirla in modo definitivo per non svantaggiare le proprie aziende.
- Il tempo che passa senza un framework non è neutro: ogni settimana si moltiplicano contratti, transazioni e decisioni delegate ad agenti autonomi.
Who Is Liable When AI Agents Make Errors? The Question Nobody Wants to Answer
La domanda sulla liability degli AI agents in transazioni autonome non ha ancora una risposta definitiva in nessuna giurisdizione del mondo. Non in Europa. Non negli Stati Uniti. Non nel Regno Unito. Questo non significa che il problema non esista. Significa che esiste senza soluzione.
Il diritto civile tradizionale prevede tre figure: chi produce uno strumento difettoso (product liability), chi lo usa in modo negligente (tort liability), chi delega a terzi una funzione e risponde per loro (vicarious liability). Applicare questi tre schemi agli AI agents produce risultati ambigui in ogni caso concreto. Un agente non è un prodotto statico: si aggiorna, si adatta al contesto, cambia comportamento in base all'interazione. Non è un dipendente: non ha volontà propria, non può essere sanzionato, non può essere interrogato in sede processuale. Non è un contraente: non ha personalità giuridica, non può essere citato in giudizio.
Lo studio Venable LLP sulla governance legale degli agenti AI identifica tre nodi strutturali che i framework attuali lasciano aperti: l'assenza di un soggetto giuridico responsabile per le decisioni agentic, la difficoltà di tracciare la causalità tra errore del modello e danno al terzo, e la questione del consenso informato — se il cliente sapeva che stava interagendo con un agente autonomo, e se quel sapere modifica la sua possibilità di rivalsa.
THE LEGAL GAP
Un AI agent non è un prodotto, non è un dipendente, non è un contraente. I tre schemi classici di liability — product, tort, vicarious — producono tutti risultati ambigui applicati a sistemi che eseguono decisioni autonome in contesti reali. Il vuoto non è un difetto temporaneo del diritto. È una scelta implicita: nessun paese vuole essere il primo ad attribuire la responsabilità perché chi lo fa prima svantaggia le proprie aziende.
The Three-Layer Problem: Developer, Deployer, User
Il tentativo più articolato di mappa della liability per gli agenti AI identifica tre livelli distinti di responsabilità potenziale. Il primo è lo sviluppatore del modello — Anthropic, OpenAI, Google DeepMind — che costruisce il sistema su cui l'agente opera. Il secondo è il deployer: l'azienda che prende quel modello, lo configura come agente autonomo, lo integra nel proprio flusso di lavoro, e lo rilascia su task reali. Il terzo è l'utente finale, che interagisce con l'agente e si fida dei suoi output.
Nello scenario del contratto errato, chi dei tre paga i due milioni? Lo sviluppatore del modello — se si dimostra che il modello aveva un difetto sistematico nel trattare quel tipo di clausola contrattuale? Il deployer — lo studio legale — che ha scelto di usare l'agente per un task ad alto rischio senza supervisione umana adeguata? L'utente finale — il cliente — che ha firmato un contratto senza leggere una clausola che un agente aveva scritto al suo posto?
L'analisi di Proskauer Rose sul diritto contrattuale nell'era degli agenti AI evidenzia un problema specifico: il momento del consenso. Quando un agente AI "accetta" i termini di un contratto a nome di un utente, chi ha effettivamente espresso il consenso? Il deployer che ha configurato l'agente? L'utente che ha autorizzato l'agente ad agire? Il modello che ha processato i termini e ha eseguito l'azione? Il diritto contrattuale tradizionale richiede un contraente con capacità giuridica e volontà. Un agente autonomo non ha nessuna delle due.
The EU AI Act: What August 2026 Actually Changes — and What It Doesn't
L'EU AI Act entra in piena applicazione il 2 agosto 2026. Per le aziende che deplorano AI agents in contesti ad alto rischio — legge, finanza, HR, selezione del personale, decisioni creditizie rientrano tutti nella categoria "high-risk" — questo significa obblighi concreti: trasparenza sul fatto che l'utente sta interagendo con un sistema AI, documentazione dei processi di training e testing, registro delle decisioni prese dall'agente, meccanismi di supervisione umana per le decisioni ad alto impatto.
Quello che l'EU AI Act non fa è attribuire la liability per le decisioni errate. L'Atto stabilisce chi deve rispettare quali obblighi procedurali. Non stabilisce chi paga il danno quando un agente sbaglia. La Commissione Europea ha in cantiere una revisione della Product Liability Directive che potrebbe coprire parzialmente il gap, ma non sarà applicabile per agosto 2026. Il framework normativo entra in vigore con un vuoto al centro.
Harvard Law School, nell'analisi sui guardrail legali per l'uso aziendale dell'AI, è esplicita: compliance non è sinonimo di immunità. Le aziende che rispettano gli obblighi procedurali dell'Atto non sono automaticamente protette da claims di negligenza o breach of contract quando un agente causa un danno. Questo è il punto che la maggior parte delle aziende ancora non ha interiorizzato.
AGOSTO 2026
L'EU AI Act in piena applicazione crea obblighi procedurali — trasparenza, documentazione, supervisione umana per i sistemi high-risk. Non crea un regime di liability per le decisioni errate degli agenti autonomi. Compliance non è immunità. Le aziende che si preparano solo agli obblighi formali dell'Atto si stanno preparando per il 70% del problema.
The First-Mover Disadvantage: Why Nobody Acts First
C'è una logica strutturale nel perché nessun paese ha ancora affrontato la liability degli agenti AI in modo definitivo. Non è incompetenza. Non è ignoranza del problema. È una forma razionale di stallo: il paese che per primo impone regole di liability chiare svantaggia le proprie aziende rispetto ai concorrenti internazionali che operano in giurisdizioni più permissive. Il risultato è una gara al ribasso delle aspettative regolamentari: tutti aspettano che qualcun altro faccia il primo passo, e nel frattempo gli agenti proliferano senza che nessuno risponda per loro.
Microsoft ha risposto a questo stallo in modo pragmatico: lanciando ad aprile 2026 l'Agent Governance Toolkit, un set di strumenti per aiutare le aziende a documentare, monitorare e auditare il comportamento dei propri agenti. Non è un framework legale. È un'infrastruttura di governance che esiste precisamente perché il framework legale non c'è. La logica è quella dell'auto-regolamentazione preventiva: costruire una traccia documentale che — in caso di disputa — permetta di dimostrare che il deployer aveva esercitato una supervisione ragionevole.
Concrete Scenarios: What Liability Looks Like in Practice
In ambito finanziario: un agente AI esegue in modo autonomo una serie di transazioni su indicazione di un sistema di portfolio management. Il mercato si muove in modo inatteso, le transazioni amplificano la perdita invece di coprirla. L'agente ha eseguito esattamente quanto istruito. Il modello di rischio su cui operava era quello approvato dal deployer. Chi risponde per la perdita del cliente?
In ambito HR: un agente AI gestisce in modo autonomo la prima fase di selezione del personale. Esclude sistematicamente candidati con certe caratteristiche demografiche non per un bias programmato esplicitamente, ma perché il training data rifletteva pattern discriminatori storici. I candidati esclusi non sanno di essere stati screenati da un agente. Non possono fare ricorso contro di lui. Possono fare ricorso contro l'azienda. Ma se l'azienda rispetta gli obblighi di trasparenza dell'EU AI Act, ha soddisfatto i requisiti formali. La discriminazione è avvenuta comunque.
Questi scenari non sono proiezioni future. Sono situazioni che si verificano oggi, in aziende che hanno scelto di deployare agenti autonomi prima che il quadro normativo fosse chiaro.
What I Think
Il problema della liability degli agenti AI non è tecnico. Non dipende dal fatto che i modelli di linguaggio non siano abbastanza capaci. È un problema di volontà politica in un contesto di competizione internazionale — e quella volontà non emerge spontaneamente quando l'incentivo dominante è aspettare che altri agiscano prima.
L'EU AI Act è un passo reale. Ma trattare la compliance all'EU AI Act come una risposta alla questione della liability è un errore concettuale che potrebbe costare molto caro. Gli obblighi procedurali e la liability per i danni sono due piani distinti. Il secondo non è incluso nel primo.
Il tempo che passa non è neutro. Ogni settimana si moltiplicano le transazioni delegate ad agenti autonomi, i contratti redatti senza supervisione, le decisioni prese senza che nessun essere umano abbia effettivamente scelto. Il danno potenziale cresce in modo non lineare con la proliferazione degli agenti. Il framework legale per gestirlo è ancora in costruzione.
"Quando un agente sbaglia e nessuno sa chi risponde, il danno non sparisce. Si accumula in silenzio fino a quando qualcuno — un giudice, un legislatore, un'azienda che perde una causa milionaria — è costretto a dargli un nome. A quel punto il framework arriverà. La domanda è solo quanto costerà costruirlo al contrario."
Lorenzo Parente