Vista aerea notturna di un quartiere urbano diviso da una linea di luce ember orange che separa zone illuminate da zone nell'oscurità, sfondo obsidian black, atmosfera cinematica e distopica, nessuna persona

Nel gennaio 2026, Verisk Analytics — il provider di dati più influente del settore assicurativo americano — ha introdotto nuovi endorsement contrattuali che escludono esplicitamente la copertura per l'esposizione ai rischi legati all'intelligenza artificiale. Il gesto è passato quasi inosservato fuori dagli ambienti specialistici. Ma la sua logica è rivelatrice: le compagnie assicurative stanno cominciando a rifiutarsi di garantire i rischi prodotti dall'AI. Il che pone una domanda molto scomoda. Se chi misura e prezza i rischi meglio di chiunque altro nel mondo non vuole assicurare l'AI, cosa sa che il resto di noi ancora non sa?

La risposta parziale a quella domanda arriva da un'altra direzione, altrettanto inquietante. Audit indipendenti di fairness condotti su modelli di underwriting assicurativo basati su AI hanno rilevato disparità di pricing sistematiche: premi più alti, coperture ridotte, accesso più difficile al mercato, con una correlazione del 17% legata alla composizione razziale del codice postale. Nessun agente umano ha guardato un cliente e ha pensato: questa persona merita condizioni peggiori. L'ha stabilito il modello. E il modello, per definizione, non discrimina. Fa previsioni.

Key Points

  • Audit di fairness su modelli AI di underwriting assicurativo hanno rilevato disparità di pricing del 17% correlate alla composizione razziale dei codici postali — la forma moderna del redlining, invisibile e algoritmicamente neutra.
  • Verisk Analytics, il principale provider di dati assicurativi USA, ha creato a gennaio 2026 endorsement che escludono la copertura per AI exposure: il settore sa che il rischio è incontrollabile.
  • I modelli AI di underwriting vengono addestrati su dati storici che riflettono decenni di discriminazione istituzionale umana — il bias non viene introdotto dall'algoritmo, viene ereditato e amplificato.
  • Il gap di accountability è il problema legale più urgente: se l'algoritmo discrimina ma nessun essere umano "ha deciso", la violazione del Fair Housing Act e dell'Equal Credit Opportunity Act diventa quasi impossibile da perseguire.

The Question Nobody in the Industry Wants to Answer

Usare l'AI per prezzare il rischio assicurativo è discriminatorio? La risposta onesta è: dipende da cosa intendete per discriminatorio, e la risposta tecnica e la risposta legale non coincidono. I modelli di underwriting basati su AI non usano la razza come variabile esplicita. Non possono. È illegale farlo. Ma usano migliaia di variabili proxy — codice postale, storico di credito, comportamento di guida, pattern di acquisto, tipo di abitazione — che, individualmente, sembrano neutrali, e che, aggregate, producono outcome sistematicamente correlati con la composizione demografica e razziale dei quartieri.

Questo è il cuore del problema: i sistemi AI di pricing assicurativo non discriminano nel senso giuridico classico del termine, ovvero non applicano intenzionalmente criteri proibiti. Ma producono outcome discriminatori nel senso statistico e sostanziale: popolazioni che si sovrappongono demograficamente a minoranze razziali pagano di più, ottengono meno, e hanno meno strumenti per contestarlo. Il meccanismo è tecnicamente legale. L'effetto è strutturalmente ingiusto.

How the Algorithm Inherited the Past

Per capire perché questo accade, bisogna capire come vengono costruiti questi modelli. I sistemi di underwriting AI vengono addestrati su dati storici: archivi di sinistri passati, comportamenti di pagamento, frequenze di perdita per zona geografica, pattern di frode. Dati raccolti in decenni in cui la discriminazione istituzionale era esplicita, legalmente codificata, e spesso attivamente praticata dal settore assicurativo stesso.

Il redlining tradizionale — la pratica di negare servizi finanziari e assicurativi a quartieri identificati come "ad alto rischio" in base alla composizione razziale — è stato formalmente proibito negli Stati Uniti nel 1968 con il Fair Housing Act. Ma i suoi effetti patrimoniali, demografici e urbanistici sono stati profondamente persistenti. I quartieri storicamente redlined sono rimasti quartieri con proprietà deprezzate, infrastrutture deteriorate, mercati del lavoro più fragili, e storici di sinistri e perdite più elevati. Non perché i loro abitanti siano intrinsecamente più rischiosi. Ma perché decenni di disinvestimento sistematico hanno prodotto condizioni oggettivamente più rischiose.

Quando un modello AI di underwriting viene addestrato su questi dati storici, apprende la correlazione tra quel quartiere e quel livello di rischio. Il modello non sa nulla del redlining. Non ha una categoria mentale per la discriminazione istituzionale. Vede un pattern statistico: un certo tipo di codice postale è associato a un certo tipo di loss ratio. E applica quel pattern, con precisione e coerenza, a ogni nuovo cliente che vive in quella zona. Il bias non viene introdotto dall'algoritmo. Viene ereditato dai dati. E poi viene amplificato dall'efficienza del modello.

IL DATO

Audit indipendenti di fairness hanno rilevato disparità di pricing del 17% nei modelli AI di underwriting assicurativo, correlate statisticamente con la composizione razziale del codice postale. Nessuna variabile "razza" è stata usata esplicitamente. Il bias emerge dalla combinazione di variabili proxy apparentemente neutrali.

The Accountability Gap: When Nobody Decided

La questione legale che emerge da questa situazione è tra le più complesse e irrisolte del diritto nell'era dell'AI. Il Fair Housing Act e l'Equal Credit Opportunity Act proibiscono le pratiche discriminatorie nel settore immobiliare e nel credito, inclusa la copertura assicurativa. Queste leggi si applicano sia alla discriminazione intenzionale (disparate treatment) sia all'impatto disparato non intenzionale (disparate impact). In teoria, un sistema AI che produce outcome con disparate impact razziale viola questi statuti, anche se nessuno ha deciso intenzionalmente di discriminare.

In pratica, perseguire quella violazione è straordinariamente difficile. Per dimostrare la disparate impact discrimination serve accesso ai dati interni del modello, comprensione dell'architettura del sistema, e capacità di ricostruire il processo attraverso cui l'outcome discriminatorio è stato prodotto. Le compagnie assicurative proteggono i propri modelli come segreti commerciali. I consumatori non hanno accesso alle variabili che hanno determinato il loro premio. I regolatori statali non hanno, nella maggior parte dei casi, le competenze tecniche per condurre audit significativi.

Il risultato è un gap di accountability che è al tempo stesso tecnico, legale e politico. L'AI Systems Evaluation Tool — previsto per uso nazionale entro novembre 2026 — dovrebbe fornire uno strumento standardizzato per l'audit di fairness. Ma la domanda su chi abbia il potere di applicarne i risultati rimane aperta.

Structural Invisibility: Why This Is Worse Than Human Discrimination

C'è un aspetto della discriminazione algoritmica che la rende strutturalmente più pericolosa della discriminazione umana, anche quando produce effetti comparabili. La discriminazione umana è visibile, contestabile, e — almeno in linea di principio — attribuibile. Un agente assicurativo che nega una polizza a un cliente per ragioni discriminatorie può essere identificato, denunciato, e perseguito. Il comportamento è illegale, produce tracce, e la responsabilità è individuabile.

La discriminazione algoritmica è strutturalmente invisibile. Il cliente che riceve un preventivo più alto non sa che il suo codice postale ha attivato una correlazione nel modello. Non sa quali variabili hanno contribuito al calcolo. Non ha accesso a un interlocutore umano che abbia "deciso" qualcosa. Non può nemmeno formulare una contestazione coerente, perché non sa cosa sta contestando. La black box è impugnabile solo da chi ha gli strumenti per aprirla. E quei strumenti non sono distribuiti in modo eguale nella società.

Le famiglie con redditi più bassi, che tendono a sovrapporsi demograficamente con le popolazioni più colpite dalle disparità di pricing AI, hanno meno probabilità di avere accesso a consulenti legali specializzati in discriminazione algoritmica, meno probabilità di conoscere i propri diritti in base al Fair Housing Act, e meno probabilità di disporre delle risorse necessarie per un contenzioso che richiede perizie tecniche costose. La discriminazione algoritmica è, in questo senso, auto-perpetuante: è più efficace proprio su chi ha meno strumenti per contrastarla.

IL CONTESTO LEGALE

Il Fair Housing Act e l'Equal Credit Opportunity Act si applicano teoricamente ai sistemi AI che producono disparate impact razziale, anche senza intento discriminatorio. In pratica, perseguire queste violazioni richiede accesso ai modelli, competenze tecniche e risorse legali che la maggior parte dei consumatori colpiti non possiede.

What the Industry Knows — and Won't Say

La mossa di Verisk a gennaio 2026 va letta in questo contesto. Un'azienda che costruisce i propri modelli sul principio che il rischio può sempre essere misurato, quantificato, e prezzato ha deciso che l'AI exposure è un rischio che non vuole assicurare. Questo non è un segnale di cautela tecnica. È una valutazione di mercato. Verisk ha stimato che l'incertezza legale, reputazionale, e regolatoria legata all'AI è troppo grande per essere modellata in modo affidabile. E se il settore che vive di previsioni del rischio non riesce a prezzare il rischio dell'AI, quello è un segnale che dovrebbe preoccupare tutti.

Il settore è intrappolato in una corsa all'automazione che nessuno dei suoi attori ha scelto individualmente e che pochissimi hanno le competenze per governare. Il mercato dell'InsurTech AI era valorizzato a 3,4 miliardi di dollari nel 2024 e proiettato a crescere a tassi a doppia cifra fino al 2030. La pressione competitiva per usare l'AI è strutturale: chi non lo fa rischia di essere avversamente selezionato dai competitori che lo fanno.

What I Think

Il problema del pricing assicurativo basato su AI non è un problema tecnologico. È un problema di governance, e la distinzione conta. Potremo costruire modelli di fairness migliori, strumenti di audit più sofisticati, regolamenti più precisi. Ma nessuno di questi interventi risolve la questione di fondo: stiamo delegando decisioni con conseguenze profonde sulla vita delle persone a sistemi che nessun essere umano comprende in modo completo, in un quadro legale che non è stato progettato per attribuire responsabilità in assenza di un decisore umano identificabile.

La scusa del "nessuno ha deciso" è diventata la difesa preferita del settore. Ma i sistemi AI non si deployano da soli. Qualcuno ha scelto di usarli. Qualcuno ha scelto su quali dati addestrarli. Qualcuno ha scelto quali metriche ottimizzare e quali trade-off accettare. La catena di responsabilità esiste. È solo stata resa sufficientemente opaca da rendere difficile seguirla fino in fondo. Quello che manca non è la tecnologia per costruire sistemi più giusti. È la volontà politica di richiedere che vengano costruiti.

"Il redlining algoritmico non è più invisibile della discriminazione che lo ha preceduto. È solo più difficile da provare. E chi lo sa, conta su questo."

Stefano Moretti