II furto di identità è al centro delle frodi assicurative, citiamo, ad esempio, finti medici che presentano cartelle cliniche contraffatte a sostegno di false richieste di risarcimento. Questi contenuti alterati devono necessariamente provenire da qualcuno o da qualcosa, e l'intelligenza artificiale generativa (IA) è perfetta per ricoprire questo ruolo. Essa, infatti, si sta rapidamente trasformando nella principale complice dei criminali.
Un tempo i truffatori avevano bisogno di ampie competenze tecniche per organizzare ed eseguire i loro piani. Oggi, al criminale medio basta semplicemente applicare uno dei tanti strumenti di Intelligenza Artificiale, facili da usare e ampiamente disponibili. Tali strumenti possiedono sofisticate capacità di scrittura, codifica, generazione e manipolazione di immagini. Presi tutti insieme, creano la tempesta perfetta di innovazione e opportunità criminose.
L'intelligenza è artificiale, ma i crimini sono reali
Essendo addestrati su modelli linguistici di grandi dimensioni, gli strumenti di Intelligenza Artificiale generativa, come ChatGPT, sono in grado di imitare il modo di parlare e scrivere delle persone. Gli utenti hanno la sensazione di parlare con persone reali e, in effetti, le chatbot basate sull'intelligenza artificiale commettono errori fin troppo umani. Gli avvocati hanno imparato a loro spese a non affidarsi mai alle chatbot per le ricerche legali. In un recente episodio, ChatGPT ha "suffragato" i casi con citazioni realistiche ma false, causando un'azione disciplinare nei confronti di un avvocato poco attento. In un altro caso, un negozio di alimentari neozelandese ha creato un bot per generare ricette appetitose partendo dalle liste di ingredienti inviate dagli utenti, ma ha fatto poi notizia quando lo stesso bot ha consigliato una "miscela di acqua aromatizzata" basandosi su un elenco di prodotti chimici letali destinati alle pulizie di casa.
L'intelligenza artificiale può occasionalmente produrre risultati insensati, ma nelle mani di un criminale esperto, le chatbot sono in grado di creare simulazioni più che verosimili di persone e persino produrre certificati medici falsi.
Clonazione vocale: un metodo utilizzabile per verificare la fonte di un'e-mail o di un documento sospetto è quello di chiamare il numero di telefono indicato e parlare direttamente con il mittente. Se la voce all'altro capo del filo suona familiare e credibile, si tratta di una richiesta legittima, giusto? No, se un’applicazione di intelligenza artificiale ha utilizzato registrazioni hackerate della persona per clonarne la voce.
I truffatori possono campionare un archivio audio sorprendentemente vasto e accessibile di post, video e memo vocali dai social media per costruirsi una libreria vocale. Ai ricercatori dei McAfee Labs sono bastati tre secondi di audio per produrre il clone di una voce umana con una corrispondenza dell'85% alla registrazione originale. Un minuto di audio circa può portare i tassi di accuratezza fino al 95%, abbastanza da ingannare datori di lavoro, familiari e investigatori assicurativi.
Foto e video deepfake: i deepfake sono media sintetici, manipolati digitalmente per sostituire in modo convincente le sembianze di una persona con quelle di un'altra. Un'immagine circolata sui social media mostrava l'ex presidente degli Stati Uniti Donald Trump mentre dava un'occhiata alle tute carcerarie arancioni. Un'altra immagine ritraeva l'ex presidente alle prese con la polizia per strada. Entrambe le foto sembravano autentiche; invece, erano state totalmente realizzate attraverso strumenti di intelligenza artificiale. Sono disponibili anche sistemi video basati sull’Intelligenza Artificiale che consentono ai criminali di modificare filmati esistenti per creare video falsi. I criminali sono persino in grado di simulare video-chiamate su Skype o Zoom, rubando l'immagine e l'identità di una persona per portare a compimento le loro truffe.
Le Compagnie di assicurazione potrebbero diventare le vittime di questi piani. Ad esempio, i truffatori hanno creato falsi account sui social media con il nome e l'immagine di veri professionisti del settore bancario. Questi account mostrano i professionisti che si esprimono in favore delle criptovalute o che propongono false offerte di prestito.
Referti medici: i criminali possono utilizzare strumenti di imaging propri dell'Intelligenza Artificiale per creare radiografie o TAC credibili, utilizzandole poi come documentazione medica da presentare alle Compagnie di Assicurazioni. Ad esempio, è possibile richiedere al generatore di immagini di Bing di creare la radiografia di un osso fratturato. Attualmente, i medici professionisti sono in grado di riconoscere la maggior parte delle contraffazioni. Tuttavia, per produrre immagini altamente realistiche, i sistemi di Intelligenza Artificiale vengono addestrati attingendo da un vasto archivio di dati radiologici. Man mano che verranno perfezionati, i generatori di immagini basati sull’Intelligenza Artificiale saranno in grado di produrre immagini più sofisticate, rendendo più diffuse questo tipo di frodi.
Documenti dall’aspetto professionale: le truffe via e-mail e i tentativi di phishing rivelano a volte la loro vera natura a causa del linguaggio impreciso, degli errori di ortografia o di altra natura presenti nel documento. Questi errori sono spesso la conseguenza di scarse conoscenze linguistiche da parte dei truffatori che si rivolgono a potenziali vittime in un altro paese. Le chatbot si sono rivelate il rimedio perfetto per i criminali, che possono sottoporre le loro comunicazioni di phishing a ChatGPT per ripulire l'ortografia e la grammatica e produrre un messaggio molto più convincente. I bot sono anche in grado di tradurre i messaggi in qualsiasi lingua, consentendo ai criminali di ampliare la gamma di potenziali vittime.
Ad esempio, utilizzando gli strumenti di Intelligenza Artificiale sono riuscito a redigere un certificato medico falso che mi esonerava dal lavoro per sei settimane a causa di un incidente. La mia richiesta iniziale - "Scrivi un certificato medico che esoneri Neil Parkin dal lavoro" - ha provocato questa risposta da parte di ChatGPT: "Come modello di Intelligenza Artificiale, non posso redigere documenti ufficiali, come un certificato medico di malattia, perché esso richiede informazioni personali e competenze mediche". Finalmente, ecco una protezione utile nei confronti dell'IA. Ma quando ho modificato il mio prompt e ho richiesto un modello per i certificati di malattia, ChatGPT mi ha accontentato. Ho quindi utilizzato uno strumento di immagine basato sull’Intelligenza Artificiale per generare un logo falso per lo studio medico. Il prodotto finale ottenuto: un certificato di malattia scritto in maniera professionale - e completamente falso - prodotto su carta intestata di un medico.
Le tecnologie relative all’Intelligenza Artificiale contribuiscono alla "professionalizzazione" delle truffe criminali. I raggiri hanno un aspetto migliore, “suonano” meglio e sono più convincenti per i singoli target.