Mentre l'intelligenza artificiale continua a portare cambiamenti positivi nel nostro mondo, la tendenza crescente al suo uso improprio, sotto forma di truffe, rappresenta una minaccia altrettanto reale.
Per contrastare queste minacce , il fattore umano gioca un ruolo importante, favorendo il successo delle strategie di difesa e contrasto verso i nuovi attacchi.
Nuove minacce basate sull'intelligenza artificiale
L'intelligenza artificiale consente ai truffatori di automatizzare processi complessi e dispendiosi in termini di tempo, per mettere insieme identità false e sintetiche che interagiscono come un essere umano attraverso migliaia di punti di contatto digitali, ingannando le aziende o i consumatori, facendo loro credere che siano legittime. Consente anche la creazione di contenuti falsi, ma di alta qualità perfettamente contestualizzati, elemento che aumenta notevolmente l'efficacia dei loro attacchi fraudolenti. Ecco alcuni esempi dei principali nuovi schemi di attacco:
- Messaggi di testo: l'intelligenza artificiale generativa consente di replicare gli scambi fra la vittima e il suo interlocutore con precisione di contesto, correttezza grammaticale, ortografica e sintattica, e aspetto adeguato.
- Immagini e video: l'intelligenza artificiale generativa consente di produrre immagini e video autentici e di alta qualità indistinguibili da quelli reali. Inoltre, i generatori di immagini da testo consentono di creare immagini credibili anche ai truffatori con scarse competenze o nulle di progettazione o produzione video.
- Voce umana: l'intelligenza artificiale generativa può creare voci che imitano quelle delle persone reali, con conseguenti nuovi rischi sia per i consumatori che possono facilmente essere convinti di parlare con qualcuno che conoscono, sia per le aziende che utilizzano sistemi di verifica vocale per applicazioni quali il riconoscimento dell'identità e l'assistenza clienti.
- Chatbot: l'intelligenza artificiale generativa consente di creare e usare chatbot amichevoli e convincenti in grado di sostenere con la vittima una conversazione simile a quella umana per lunghi periodi di tempo con l'obiettivo di instaurare una connessione emotiva di fiducia e convincere la vittima a inviare denaro o condividere informazioni personali o riservate.
- Siti Web: anche la creazione di siti web truffa è più semplice grazie all'intelligenza artificiale. Infatti, mentre tradizionalmente l'esecuzione di frodi con siti web falsi richiedeva un elevato livello di competenza, l'intelligenza artificiale consente a chiunque abbia un'esperienza minima di codifica di scrivere codice, grazie all'aiuto del prompt engineering interattivo.
Contrastare l’IA con l’IA. Punto di partenza: consapevolezza e competenza
La consapevolezza delle continue nuove minacce introdotte dall'uso improprio e fraudolento dell'intelligenza artificiale è il punto di partenza per definire una adeguata strategia di sicurezza informatica, difesa e contrasto alle minacce. Abbinata alla competenza di professionisti esperti consente anche alle aziende di avvalersi dei vantaggi delle tecnologie avanzate e far uso dell'intelligenza artificiale, uso legittimo in questo caso, nelle strategie di difesa.
Si innesca così una sorta di competizione continua fra l'efficacia delle strategie di difesa aziendale - che fanno buon uso dell'intelligenza artificiale - e l'efficacia delle strategie di attacco dei truffatori - che fanno cattivo uso dell'intelligenza artificiale. E nella competizione fra buon uso e cattivo uso dell'intelligenza artificiale, la vera sfida per le aziende non è restare al passo con i truffatori, ma riuscire a stare sempre un passo avanti. E per riuscirci può contare sul fattore umano come catalizzatore che accelera l'efficacia del processo di difesa, il che significa integrare la formazione dei propri dipendenti nella strategia di sicurezza informatica.
Il fattore umano: da punto di debolezza a garanzia di difesa
Le aziende possono dispiegare gli strumenti di sicurezza più all'avanguardia e i professionisti più esperti, ma il sistema di difesa risulta fallace se i dipendenti non sono consapevoli delle minacce e adottano comportamenti rischiosi.
Ancora troppi lavoratori non conoscono o tendono a sottovalutare le minacce e i rischi di cyber security né di conseguenza mettono in atto comportamenti responsabili di fronte a un link, a una pagina web, a una richiesta di credenziali, etc.
Di fronte ad attacchi sempre più sofisticati, è fondamentale formare i dipendenti per allenarli a riconoscere le minacce, attuare opportuni comportamenti e mantenere sempre alta l'attenzione verso queste insidie.
È il fattore umano che consente alle aziende di mantenere quel vantaggio rispetto ai truffatori, a fare la differenza fra buon uso e cattivo uso dell'intelligenza artificiale. Ecco perché è cruciale investire nella formazione: consente di innalzare il livello di sicurezza e resilienza delle aziende, di accelerare la risposta ai truffatori e vincere sempre, al fotofinish, sui truffatori. Evitando di dover pagare riscatti, perdere informazioni, subire fermi operativi … per mancata educazione e allenamento dei dipendenti.
Conclusioni
L'emergere di truffe generate dall'intelligenza artificiale può avere conseguenze profonde. Riducendo le barriere all'ingresso per la creazione di contenuti fraudolenti credibili, un numero molto maggiore di potenziali criminali può lanciare campagne di truffa di successo su scala sempre più ampia. La complessità e sofisticatezza di queste truffe le rende molto più difficili da individuare.
In questo scenario, è fondamentale essere a conoscenza di questo uso improprio, fraudolento dell'intelligenza artificiale per contrastarlo con strategie di difesa adeguate. Strategie che vedono, a loro volta, l’uso buono dell’intelligenza artificiale per trarne i vantaggi competitivi nei confronti del cattivo uso - in una sorta di competizione dove le aziende devono puntare a stare sempre un passo avanti rispetto ai truffatori. E per farlo servono sì consapevolezza, competenza e uso di tecnologie avanzate, ma ancora una volta e sempre di più risulta decisivo il fattore umano, catalizzatore della strategia di difesa e processo di contrasto alle minacce.
Per una buona strategia di sicurezza e difesa, efficace, la tecnologia da sola non basta. Servono consapevolezza e competenza di professionisti esperti. E serve formazione dei dipendenti, perché nella competizione fra buon uso dell’IA e cattivo uso dell’IA può essere solo il fattore umano a fare la differenza.