Global Claims Views

Add a title
#F2F2F2
NaN
true
false
Pipe Position
Image
Add a title
#fff
NaN
true
false
Pipe Position
Image

Intelligenza artificiale e frodi assicurative: Quattro pericoli e quattro opportunità

Ottobre 2023
A man sitting at a desk with computer monitors displaying code
Neil Parkin
Neil Parkin

Head of Business Development
RGA South Africa

 

II furto di identità è al centro delle frodi assicurative, citiamo, ad esempio, finti medici che presentano cartelle cliniche contraffatte a sostegno di false richieste di risarcimento. Questi contenuti alterati devono necessariamente provenire da qualcuno o da qualcosa, e l'intelligenza artificiale generativa (IA) è perfetta per ricoprire questo ruolo. Essa, infatti, si sta rapidamente trasformando nella principale complice dei criminali.

Un tempo i truffatori avevano bisogno di ampie competenze tecniche per organizzare ed eseguire i loro piani. Oggi, al criminale medio basta semplicemente applicare uno dei tanti strumenti di Intelligenza Artificiale, facili da usare e ampiamente disponibili. Tali strumenti possiedono sofisticate capacità di scrittura, codifica, generazione e manipolazione di immagini. Presi tutti insieme, creano la tempesta perfetta di innovazione e opportunità criminose.

L'intelligenza è artificiale, ma i crimini sono reali

Essendo addestrati su modelli linguistici di grandi dimensioni, gli strumenti di Intelligenza Artificiale generativa, come ChatGPT, sono in grado di imitare il modo di parlare e scrivere delle persone. Gli utenti hanno la sensazione di parlare con persone reali e, in effetti, le chatbot basate sull'intelligenza artificiale commettono errori fin troppo umani. Gli avvocati hanno imparato a loro spese a non affidarsi mai alle chatbot per le ricerche legali. In un recente episodio, ChatGPT ha "suffragato" i casi con citazioni realistiche ma false, causando un'azione disciplinare nei confronti di un avvocato poco attento. In un altro caso, un negozio di alimentari neozelandese ha creato un bot per generare ricette appetitose partendo dalle liste di ingredienti inviate dagli utenti, ma ha fatto poi notizia quando lo stesso bot ha consigliato una "miscela di acqua aromatizzata" basandosi su un elenco di prodotti chimici letali destinati alle pulizie di casa.

L'intelligenza artificiale può occasionalmente produrre risultati insensati, ma nelle mani di un criminale esperto, le chatbot sono in grado di creare simulazioni più che verosimili di persone e persino produrre certificati medici falsi.

Clonazione vocale: un metodo utilizzabile per verificare la fonte di un'e-mail o di un documento sospetto è quello di chiamare il numero di telefono indicato e parlare direttamente con il mittente. Se la voce all'altro capo del filo suona familiare e credibile, si tratta di una richiesta legittima, giusto? No, se un’applicazione di intelligenza artificiale ha utilizzato registrazioni hackerate della persona per clonarne la voce.

I truffatori possono campionare un archivio audio sorprendentemente vasto e accessibile di post, video e memo vocali dai social media per costruirsi una libreria vocale. Ai ricercatori dei McAfee Labs sono bastati tre secondi di audio per produrre il clone di una voce umana con una corrispondenza dell'85% alla registrazione originale. Un minuto di audio circa può portare i tassi di accuratezza fino al 95%, abbastanza da ingannare datori di lavoro, familiari e investigatori assicurativi.

Foto e video deepfake: i deepfake sono media sintetici, manipolati digitalmente per sostituire in modo convincente le sembianze di una persona con quelle di un'altra. Un'immagine circolata sui social media mostrava l'ex presidente degli Stati Uniti Donald Trump mentre dava un'occhiata alle tute carcerarie arancioni. Un'altra immagine ritraeva l'ex presidente alle prese con la polizia per strada. Entrambe le foto sembravano autentiche; invece, erano state totalmente realizzate attraverso strumenti di intelligenza artificiale. Sono disponibili anche sistemi video basati sull’Intelligenza Artificiale che consentono ai criminali di modificare filmati esistenti per creare video falsi. I criminali sono persino in grado di simulare video-chiamate su Skype o Zoom, rubando l'immagine e l'identità di una persona per portare a compimento le loro truffe.

Le Compagnie di assicurazione potrebbero diventare le vittime di questi piani. Ad esempio, i truffatori hanno creato falsi account sui social media con il nome e l'immagine di veri professionisti del settore bancario. Questi account mostrano i professionisti che si esprimono in favore delle criptovalute o che propongono false offerte di prestito.

Referti medici: i criminali possono utilizzare strumenti di imaging propri dell'Intelligenza Artificiale per creare radiografie o TAC credibili, utilizzandole poi come documentazione medica da presentare alle Compagnie di Assicurazioni. Ad esempio, è possibile richiedere al generatore di immagini di Bing di creare la radiografia di un osso fratturato. Attualmente, i medici professionisti sono in grado di riconoscere la maggior parte delle contraffazioni. Tuttavia, per produrre immagini altamente realistiche, i sistemi di Intelligenza Artificiale vengono addestrati attingendo da un vasto archivio di dati radiologici. Man mano che verranno perfezionati, i generatori di immagini basati sull’Intelligenza Artificiale saranno in grado di produrre immagini più sofisticate, rendendo più diffuse questo tipo di frodi.

Documenti dall’aspetto professionale: le truffe via e-mail e i tentativi di phishing rivelano a volte la loro vera natura a causa del linguaggio impreciso, degli errori di ortografia o di altra natura presenti nel documento. Questi errori sono spesso la conseguenza di scarse conoscenze linguistiche da parte dei truffatori che si rivolgono a potenziali vittime in un altro paese. Le chatbot si sono rivelate il rimedio perfetto per i criminali, che possono sottoporre le loro comunicazioni di phishing a ChatGPT per ripulire l'ortografia e la grammatica e produrre un messaggio molto più convincente. I bot sono anche in grado di tradurre i messaggi in qualsiasi lingua, consentendo ai criminali di ampliare la gamma di potenziali vittime.

Ad esempio, utilizzando gli strumenti di Intelligenza Artificiale sono riuscito a redigere un certificato medico falso che mi esonerava dal lavoro per sei settimane a causa di un incidente. La mia richiesta iniziale - "Scrivi un certificato medico che esoneri Neil Parkin dal lavoro" - ha provocato questa risposta da parte di ChatGPT: "Come modello di Intelligenza Artificiale, non posso redigere documenti ufficiali, come un certificato medico di malattia, perché esso richiede informazioni personali e competenze mediche". Finalmente, ecco una protezione utile nei confronti dell'IA. Ma quando ho modificato il mio prompt e ho richiesto un modello per i certificati di malattia, ChatGPT mi ha accontentato. Ho quindi utilizzato uno strumento di immagine basato sull’Intelligenza Artificiale per generare un logo falso per lo studio medico. Il prodotto finale ottenuto: un certificato di malattia scritto in maniera professionale - e completamente falso - prodotto su carta intestata di un medico.

Le tecnologie relative all’Intelligenza Artificiale contribuiscono alla "professionalizzazione" delle truffe criminali. I raggiri hanno un aspetto migliore, “suonano” meglio e sono più convincenti per i singoli target. 

 

Guardate la presentazione di Neil Parkin, "Artificial Crimes: How AI Became a Criminal's Best Friend", tratta dalla Fraud Conference 2023 di RGA:

 

 

 

Il potenziale positivo dell'Intelligenza Artificiale

Gli assicuratori devono stare attenti alle truffe generate grazie all'Intelligenza Artificiale. Tuttavia, il settore assicurativo sta anche valutando gli strumenti di Intelligenza Artificiale in grado di individuare sinistri fraudolenti e rivelare i tentativi di frode. Non tutte queste funzionalità sono attualmente disponibili, ma, man mano che i criminali amplieranno il loro utilizzo dell’Intelligenza Artificiale, anche il settore assicurativo dovrà adeguare la propria capacità di sradicare le frodi generate grazie all'assistenza dell’intelligenza artificiale.

  • Profilazione del rischio: l’Intelligenza Artificiale può migliorare la valutazione del rischio e fornire dettagli più specifici sugli assicurandi. L'Intelligenza Artificiale potrebbe anche identificarsi, segnalando le applicazioni che sono state create utilizzando strumenti di IA. Quello delle assicurazioni è solo uno dei tanti settori interessati a rilevare i contenuti generati con l'assistenza dell'IA. Il mondo accademico vuole individuare i lavori scritti dall'Intelligenza Artificiale presentati dagli studenti. Alcuni produttori di software antiplagio, come il creatore di Turnitin, si stanno concentrando sul rilevamento dell'Intelligenza Artificiale. Anche i creatori di ChatGPT, OpenAI, hanno assunto un “data scientist” per sviluppare una sorta di filigrana (un set nascosto di parole e punteggiatura) che identifichi le risposte generate da ChatGPT, Alla maggior parte degli utenti il testo sembrerà normale, ma chi sa cosa sta cercando sarà in grado di capire che il contenuto non è “umano”
  • Sottoscrizione: l'Intelligenza Artificiale possiede la capacità di automatizzare molte fasi del processo di sottoscrizione. Gli attuari stanno già testando le capacità dell'IA per il calcolo della mortalità, la codifica e altri usi. L'intelligenza artificiale potrebbe essere impiegata anche per esaminare i dati, come il tempo necessario a un assicurando per compilare un modulo online, e segnalare i candidati fraudolenti che rispondono alle domande più rapidamente di quanto potrebbe fare un individuo reale. Gli strumenti di IA sono potenti solo quanto i dati utilizzati per addestrarli; quindi, in questi casi sarà essenziale per gli assicuratori tenere traccia dei propri dati per alimentare i modelli.
  • Sinistri: uno strumento di intelligenza artificiale istruito nella gestione dei sinistri fraudolenti potrebbe diventare abile nell'individuarli. Potrebbe anche rilevare i tipi di truffe creati con l'Intelligenza Artificiale descritti in precedenza, come foto e video falsificati, registrazioni audio e narrazioni generate dall'Intelligenza Artificiale. Tali strumenti potrebbero anche rivelare schemi di sinistri fraudolenti, come numeri di cellulare o nomi di medici ricorrenti.
  • Monitoraggio delle frodi: infine, se alimentati con i dati storici sui tentativi di frode, gli strumenti di IA potrebbero essere incorporati lungo tutto il processo assicurativo per individuare "punti caldi", tendenze e schemi fraudolenti.

Anche in questo caso, molte delle funzionalità di rilevamento dell'Intelligenza Artificiale non sono ancora disponibili, ma i criminali stanno già utilizzando gli strumenti dell'Intelligenza Artificiale per frodare individui e aziende per milioni di dollari a livello globale. Il nostro settore deve rimanere sempre informato e vigile su qualsiasi sviluppo relativo all’Intelligenza Artificiale, in modo da proteggere i nostri interessi commerciali, i nostri clienti e la nostra stessa reputazione.