Con l’intelligenza artificiale la truffa diventa personalizzata. L’ultima frontiera dei cybercriminali

15 Gen 2025 18:17 - di Demetra Orsi
intelligenza artificiale

L’intelligenza artificiale, che in pochi anni ha cambiato le regole del gioco in ambiti come la medicina e la finanza, si sta rivelando un’alleata formidabile anche per chi opera al di fuori della legalità. A lanciare l’allarme è Kaspersky, leader mondiale nella cybersecurity, che ha recentemente delineato uno scenario inquietante: non solo le aziende italiane sono sotto attacco— con un aumento del 45% nell’ultimo anno —, ma persino i professionisti più esperti non saranno immuni a queste nuovi metodi sofisticati. Segnalato da più della metà degli intervistati e percepito dal 52% degli italiani come minaccia, è la vera sfida del nostro tempo.

Con l’intelligenza artificiale attacchi sempre più personalizzati

Una volta, il phishing si limitava a e-mail generiche, inviate a casaccio con la speranza che qualcuno abboccasse. Oggi, grazie all’Ai, i cybercriminali possono analizzare i social media, i siti aziendali e persino le abitudini personali delle vittime per confezionare messaggi su misura. Un dipendente, per esempio, potrebbe ricevere una falsa posta apparentemente inviata dal proprio Ceo, con riferimenti precisi a progetti aziendali reali. Un inganno perfetto, che annulla la distinzione tra realtà e frode.

I deepfake: la nuova frontiera delle mafie

Come se non bastasse, la tecnologia dei deepfake ha aggiunto un ulteriore livello di pericolo. Video e audio creati con l’intelligenza artificiale replicano perfettamente la voce e il volto di dirigenti aziendali, inducendo le vittime a compiere azioni come trasferimenti milionari.

A gettare ulteriore luce su questo panorama cupo è Nicola Gratteri, procuratore della Repubblica presso il Tribunale di Napoli. «Il dark web è una materia molto delicata che nell’arco di due anni è esplosa», afferma in audizione alla commissione parlamentare Antimafia. «Troveremo la nuova frontiera delle mafie nel dark web», aggiunge Grattieri. «C’è bisogno di personale specializzato e di ingegneri informatici», dice con tono fermo, sapendo la sfida epocale che attende tutti.

L’intelligenza artificiale gioca con le debolezze umane

Persino i veterani della cybersecurity, abituati a smascherare truffe, possono essere ingannati. L’Ai non si limita a replicare l’aspetto e il tono delle comunicazioni legittime, ma gioca sulle debolezze psicologiche umane, facendo leva su paura, urgenza e autorità. Una pressione sottile, che spinge chiunque ad agire impulsivamente.

L’Ai, ironia della sorte, è anche il peggior nemico degli strumenti di difesa convenzionali. I filtri e-mail, progettati per bloccare minacce comuni, vengono aggirati con facilità da algoritmi in grado di apprendere e adattarsi.

Difendersi dall’Ai con l’Ai

Se l’Ai rappresenta una minaccia, può anche essere parte della soluzione. Le aziende devono adottare sistemi di sicurezza avanzati, come quelli basati proprio sull’intelligenza artificiale, capaci di rilevare anomalie nei messaggi. Inoltre, è essenziale una formazione continua per i dipendenti, affinché sappiano riconoscere segnali di allarme, e l’adozione di un modello di sicurezza “zero-trust“, che limiti i danni in caso di violazione.

Commenti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *