Un report della redazione di Gizmodo ha reso noto che lo scorso anno due scienziati della società di sicurezza ZeroFOX hanno condotto un esperimento per vedere chi riusciva a convincere il maggior numero di utenti Twitter a cliccare su link dannosi: se gli esseri umani o un’Intelligenza Artificiale.
I ricercatori hanno insegnato ad analizzare il comportamento degli utenti dei social network, quindi hanno progettato e implementato un proprio tentativo di phishing. Nei test, l’hacker artificiale è risultato sostanzialmente migliore dei suoi concorrenti umani, componendo e distribuendo molti più link malevoli rispetto agli umani, con un tasso di conversione sostanzialmente migliore.
L’AI, denominato SNAP_R, ha inviato tweet simulati di spear-phishing a oltre 800 utenti alla velocità di 6,75 tweet al minuto, attirando 275 vittime. Al contrario, l’autore della redazione di Forbes che ha partecipato all’ esperimento, Thomas Fox-Brewster, è stato in grado di estrarre solo 1.075 tweet al minuto, facendo solo 129 tentativi e attirando in 49 utenti.
Fortunatamente questo era solo un test, ma ha dimostrato che gli hacker sono già in grado di usare l’IA per i loro scopi malevoli. E in realtà, probabilmente lo stanno già utilizzando, anche se è difficile dimostrarlo. Lo scorso luglio, in occasione del Black Hat USA 2017, centinaia di esperti di cybersecurity di spicco si sono riuniti a Las Vegas per discutere su questo tema e su altre minacce incombenti poste dalle tecnologie emergenti. In un sondaggio di Cylance tenuto durante la conferenza, ai partecipanti è stato chiesto se secondo loro i cybercriminali utilizzeranno l’IA per scopi offensivi nel prossimo anno: il 62% ha risposto affermativamente.
“Gli hacker usano l’intelligenza artificiale come arma già da parecchio tempo”, ha detto Brian Wallace, Cylance Lead Security Data Scientist, in un’intervista a Gizmodo: “Ha senso perché gli hacker cercano di attaccare quante più persone possibile, colpendo quanti più bersagli possibili e cercando di ridurre i rischi per sé stessi. L’intelligenza artificiale, e in particolare l’ apprendimento automatico, sono strumenti perfetti da utilizzare a tal fine: possono prendere decisioni su cosa attaccare, chi attaccare, quando attaccare e così via”.
Marc Goodman, autore di Future Crimes: Everything Is Connected, Everyone Is Vulnerable e What We Can Do About It, dice che non è sorpreso dal fatto che così tanti partecipanti al Black Hat vedano l’intelligenza artificiale come una minaccia imminente, in quanto fa parte di attacchi informatici da anni: “L’IA è definita da molte persone diverse in molti modi diversi. C’è quindi bisogno di maggiore chiarezza su cosa gli esperti di sicurezza informatica intendono per IA”. In effetti, è probabile che su questo tema le opinioni degli esperti divergano.
Un problema correlato è che il termine intelligenza artificiale evoca visioni futuristiche e fantasie fantascientifiche lontane dalle nostre realtà attuali: “Il termine IA è spesso frainteso, con molte persone che pensano ai robot Terminator che cercano di cacciare John Connor, ma non rappresenta la realtà. Piuttosto, si tratta di un ampio argomento di studio intorno alla creazione di varie forme di intelligenza che si presentano come artificiali”, ha commentato Wallace.
Oggi, i rapidi sviluppi nel machine learning – dove i sistemi imparano dai dati e migliorano con l’esperienza senza essere esplicitamente programmati – l’elaborazione del linguaggio naturale, le reti neurali (sistemi modellati sul cervello umano), e molti altri campi stanno riducendo anche la nostra percezione di ciò che può rappresentare l’intelligenza artificiale.
In pochi anni, anche gli assistenti virtuali come Siri o Alexa, le auto a guida autonoma e gli algoritmi per la diagnosi delle malattie stanno gradualmente perdendo il loro fascino perché gli utenti cominciano a dare per scontato le loro capacità e screditare queste forme di IA perché non perfettamente umane. Se respingiamo o ignoriamo il potere di questi strumenti, possiamo essere ciechi di fronte a coloro che sono desiderosi di sfruttare il pieno potenziale dell’ AI, hacker inclusi.