C’era una radiografia sul tavolo. Sembrava autentica. Nei dettagli, nelle sfumature, nella struttura clinica. Eppure era falsa. Generata dall’intelligenza artificiale. E nessuno, almeno non subito, se n’era accorto.
Questa non è fantascienza. Non è uno scenario distopico proiettato nel futuro. È accaduto. Uno studio pubblicato sulla prestigiosa rivista Radiology ha sottoposto 264 immagini radiologiche, metà autentiche, metà prodotte artificialmente, a 17 specialisti distribuiti in 12 ospedali di sei Paesi diversi. Il risultato è stato inequivocabile e inquietante: senza essere preventivamente allertati della presenza di immagini false, i radiologi le hanno identificate correttamente solo nel 41% dei casi. Anche dopo essere stati avvisati dell’esistenza del falso, l’accuratezza media si è fermata al 75%. Un margine d’errore che, nel mondo delle assicurazioni, delle perizie e dei risarcimenti, equivale a un’esposizione al rischio enorme e ancora largamente sottovalutata.
Il deepfake entra nei processi, non solo nelle piazze
Per anni abbiamo associato i deepfake alla disinformazione politica, alla manipolazione dell’opinione pubblica, agli scandali mediatici. Li abbiamo considerati un problema per il giornalismo, per la reputazione, per la politica. Il settore assicurativo si è sentito, in larga misura, al riparo.
Questo tempo è finito.
Il deepfake non circola più soltanto sui social network. Entra nei processi. Entra nelle perizie. Entra nelle pratiche di sinistro. Una radiografia falsa può sostenere una richiesta di rimborso per una patologia inesistente. Un audio clonato può simulare l’autorizzazione di un dirigente. Un video manipolato può certificare un danno qua che non si è mai verificato. Non si tratta di vulnerabilità ipotetiche: si tratta di vettori di frode già operativi, che sfruttano le stesse procedure ordinarie che le compagnie hanno costruito nel tempo per gestire i sinistri con efficienza.
Il caso di Hong Kong, divenuto ormai il simbolo di questo salto qualitativo, lo illustra con brutale chiarezza: un dipendente ha autorizzato trasferimenti per oltre 25 milioni di dollari dopo aver partecipato a una videoconferenza con quello che credeva fossero i dirigenti della propria azienda. Erano avatar. Ricostruzioni artificiali. Deepfake audio-video così convincenti da superare ogni filtro di diffidenza umana.
Nessuna breccia informatica. Nessuna intrusione nei sistemi. Semplicemente, la fiducia è stata violata attraverso l’inganno visivo e sonoro.
Il cyber risk cambia natura: attacca la fiducia, non solo i sistemi
Questo passaggio merita una riflessione profonda da parte di chi lavora nel brokeraggio e nel risk management.
Il paradigma tradizionale del rischio informatico è costruito attorno a concetti ben definiti: intrusioni, ransomware, phishing, furto di credenziali, violazione di dati. Le polizze cyber sono state progettate, e continuano a essere collocate, prevalentemente intorno a questi scenari. Ma i deepfake introducono una dimensione radicalmente diversa: non attaccano le infrastrutture, attaccano la credibilità delle prove.
Non forzano una porta. Si presentano come qualcosa di legittimo.
Ed è precisamente questa la loro potenza devastante in ambito assicurativo: il sinistro, la perizia, il documento clinico, la comunicazione aziendale, tutto ciò su cui si fonda la valutazione del rischio e la liquidazione dei danni, può essere contraffatto in modo da risultare indistinguibile dall’originale, anche agli occhi di professionisti esperti.
Come scrive Marco Ramilli, founder di IdentifAI: «L’Intelligenza Artificiale generativa ha reso indistinguibile il vero dal falso, mettendoci di fronte a una scelta. Non possiamo più credere a tutto ciò che vediamo, ma vivere nel sospetto perpetuo è contro la nostra natura umana. Per non rassegnarci alla “Società del Dubbio”, dobbiamo costruire i nostri anticorpi digitali».
La mente come superficie d’attacco: il cognitive hacking entra in scena
Ma c’è una dimensione ancora più sottile, e forse più insidiosa, che il settore deve imparare a presidiare. Ce la illustrano Pierguido Iezzi e Gennaro Fusco nel loro recente saggio “Hackerare la mente. Parole, algoritmi e inganni. Come difendere la propria libertà digitale”, pubblicato da Il Sole 24 Ore.
La tesi è potente e scomoda: il vero bersaglio degli attacchi digitali più avanzati non è il codice, ma il pensiero umano. Non si tratta solo di violare sistemi informatici, ma di influenzare percezioni, emozioni, processi decisionali. Gli autori definiscono questo fenomeno cognitive hacking: una forma di attacco progettata per attivare scorciatoie mentali, amplificare urgenza, sfruttare la fiducia, aggirare il senso critico.
Fiducia, paura, fretta, senso di appartenenza: sono questi i varchi reali attraverso cui passa la manipolazione contemporanea. Più delle vulnerabilità software.
Nel contesto assicurativo, questo si traduce in scenari che vanno ben oltre il sinistro fraudolento classico. L’agente che riceve una comunicazione urgente da un “broker partner” con istruzioni per modificare una polizza. Il responsabile sinistri che esamina documentazione clinica che appare tecnicamente ineccepibile. Il perito che valuta immagini dei danni prodotte artificialmente. In tutti questi casi, l’attacco non punta al sistema informatico: punta al giudizio professionale della persona.
E con l’avvento dell’AI generativa, questo processo si industrializza. I modelli linguistici sono oggi capaci di produrre messaggi personalizzati, privi di errori, perfettamente calibrati sul profilo del destinatario. Le vecchie truffe si riconoscevano dagli errori, dalla goffaggine, dai dettagli stonati. Le nuove possono essere impeccabili. E proprio per questo, incomparabilmente più pericolose.
L’industria assicurativa si muove, ma troppo lentamente
Il mercato comincia a percepire la portata della minaccia. La partnership tra IdentifAI e AmTrust Assicurazioni , che ha integrato strumenti di rilevamento deepfake nell’offerta cyber per imprese e organizzazioni sanitarie, è un segnale importante. Rappresenta il primo riconoscimento esplicito, da parte di un operatore assicurativo, che il deepfake non è un rischio reputazionale o mediatico, ma un rischio operativo, economico e potenzialmente assicurabile.
Ma un caso virtuoso non fa un mercato. E il mercato italiano, nel suo complesso, appare ancora impreparato a rispondere a questo cambio di paradigma.
I broker, in particolare, si trovano in una posizione cruciale. Sono gli interlocutori di fiducia delle imprese, coloro che traducono il rischio in copertura e che accompagnano i clienti nelle scelte strategiche di protezione. Eppure la gran parte dei programmi assicurativi oggi non contempla in modo esplicito il rischio deepfake come categoria autonoma. Lo si trova, quando ci si trova, annegato nelle clausole cyber più generiche, senza una tariffazione specifica, senza procedure di claims management adeguate, senza protocolli di verifica dell’autenticità della documentazione a supporto delle richieste di risarcimento.
È un gap che ha conseguenze concrete: le compagnie liquidano sinistri sulla base di prove che potrebbero essere false. E non hanno ancora gli strumenti sistematici per verificarlo.
Cosa deve cambiare: il ruolo del broker come presidio di consapevolezza
La questione pone sfide su più livelli, tutti di stretta pertinenza per chi opera nel brokeraggio e nel risk management.
Sul piano della valutazione del rischio, è necessario aggiornare i framework di analisi per includere esplicitamente il rischio deepfake tra le esposizioni delle imprese clienti. Questo vale in particolare per i settori più esposti: sanità, finanza, legal, supply chain, ma anche qualsiasi realtà aziendale con processi di autorizzazione digitale o documentazione clinica rilevante.
Sul piano delle coperture, occorre avviare un dialogo strutturato con le compagnie per definire clausole dedicate, massimali specifici e procedure di verifica dell’autenticità della documentazione di sinistro. Il mercato londinese e quello nordamericano stanno già sviluppando soluzioni in questa direzione: il mercato italiano non può permettersi di arrivare in ritardo.
Sul piano della prevenzione, il broker deve farsi promotore di una cultura dell’autenticità digitale presso i propri clienti. Questo significa introdurre protocolli di verifica della documentazione, investire in strumenti di AI detection, formare i team interni a riconoscere i segnali del cognitive hacking. Come sottolineano Iezzi e Fusco, non si tratta solo di tecnologia: si tratta di una nuova alfabetizzazione digitale che deve essere anche psicologica, capace di rallentare di fronte ai messaggi costruiti per imporre urgenza e di interrogarsi prima di fidarsi.
Sul piano regolatorio e giuridico, infine, il tema pone interrogativi ancora irrisolti sulla valenza probatoria dei documenti digitali, sulla responsabilità nella catena di verifica, sull’eventuale inadempimento contrattuale in caso di sinistro fraudolento basato su deepfake. Sono questioni che il mercato assicurativo dovrà affrontare, prima o poi, in sede di contenzioso. Meglio farlo in anticipo, con regole chiare, che in emergenza.
Il confine tra vero e falso è diventato un tema di sicurezza economica
Per decenni il digitale è stato raccontato come il regno della tracciabilità. La prova digitale era, per definizione, più affidabile di quella cartacea: oggettiva, verificabile, immutabile. Oggi questo assunto è in crisi.
Vedere non basta più. Ascoltare non basta più. Ricevere un documento non basta più.
E quando questo accade nei settori dove una prova può generare un risarcimento da centinaia di migliaia di euro, o dove un’immagine clinica può determinare l’invalidità di una persona, il problema smette di essere tecnologico. Diventa industriale, giuridico, assicurativo.
La prima infrastruttura da proteggere non è più il server. È la fiducia.
E la fiducia, nel nostro settore, non è un valore astratto. È il fondamento di ogni polizza, di ogni perizia, di ogni liquidazione. È ciò su cui poggia l’intero edificio del trasferimento del rischio.
Il deepfake lo ha capito prima di noi. È tempo che anche noi lo capiamo.










