CYBERSECURITY E INTELLIGENZA ARTIFICIALE

Per Intelligenza Artificiale s’intende quell’insieme di sistemi hardware e software dotati di capacità tipiche dell’essere umano. Lo scopo dell’AI è quello di perseguire, in maniera del tutto autonoma, scopi ben precisi prendendo delle decisioni che, fino a questo momento, erano proprie dell’uomo.

L’AI ricopre un ruolo sempre più importante per la trasformazione digitale.

I suoi campi d’applicazione sono svariati: dall’informatica alla Cybersecurity, dall’Automotive al settore Healthy Care, fino ad arrivare a supportare le attività investigative.

Nonostante l’intelligenza artificiale porti con sé numerosi vantaggi, non mancano delle criticità connesse principalmente al tema della sicurezza informatica.

L’applicazione dell’intelligenza artificiale potrebbe esporre a diversi rischi tra cui attacchi informatici dannosi eseguiti con modalità del tutto innovative.  

AI e sicurezza informatica: il report ENISA

Il 15 Dicembre 2020, l’Agenzia Europea per la Cybersecurity (ENISA) ha pubblicato l’Artificial Intelligence Threat Landscape Report con l’obiettivo di sottolineare l’importanza della sicurezza informatica e della protezione dei dati in ambito AI col fine di renderla una tecnologia sicura per i suoi fruitori.

Lo studio condotto da ENISA intende fornire una fotografia della situazione in tema di minacce per l’AI, individuando i possibili gruppi di responsabili.

Difatti, solo attraverso lo studio delle potenziali minacce e dei potenziali rischi per l’AI si potranno pensare e attuare sistemi di controlli di sicurezza mirati.

Come abbiamo già accennato, l’AI si trova alla base del processo di digitalizzazione, trovando applicazione in moltissimi settori. Tra questi, la tecnologia AI può fare la differenza nel campo della cybersecurity imparando a riconoscere, attraverso l’analisi del flusso di dati, rischi e minacce informatiche.

Tuttavia, le caratteristiche intrinseche dell’AI potrebbero essere funzionali e trovare facile attuazione in attività illegali, attraverso l’impiego di nuovi e sofisticati metodi di attacchi informatici. Difatti, potrebbe accadere che utilizzando sistemi basati sull’AI, per raccogliere, analizzare e trasferire dati, si creino delle vulnerabilità che potrebbero compromettere il loro corretto funzionamento e che rischiano quindi di essere sfruttate per attacchi informatici.

All’interno del Report Enisa sono stati descritti alcuni attori che sfruttano gli algoritmi o manipolano i sistemi dell’AI per compiere atti malevoli.

Gli attori del cybercrime contro l’AI

Questi attori comprendono:

  • Cybercriminals, ovvero soggetti che agiscono spinti principalmente da motivazioni di carattere economico. Il loro intento è quello di utilizzare l’intelligenza artificiale e le sue vulnerabilità per rubare e manipolare dati. In questa categoria, potrebbero rientrare anche i dipendenti di un’azienda che pongono in essere azioni criminose. Ad esempio, il dipendente potrebbe decidere di rubare o sabotare il database utilizzato dal sistema AI aziendale arrecando danni non indifferenti.  
  • Nation state actors, ossia soggetti altamente qualificati e alla costante ricerca di nuovi metodi per penetrare il sistema di intelligenza artificiale di un altro Paese con l’obiettivo di raccogliere informazioni sensibili e riservate o creare bug nel sistema.
  • Terrorists, che rappresentano la categoria di criminali più pericolosa. Il loro intento, infatti, è sfruttare l’AI come arma di distruzione. Ad esempio, i sistemi alla base del pilota automatico di mezzi di trasporto senza conducente potrebbero essere manomessi e causare incidenti con esiti anche mortali.
  • Hacktivist, ovvero individui che hackerano i sistemi di intelligenza artificiale spinti da uno scopo ideologico. Voglio testare la sicurezza dei sistemi AI o semplicemente dimostrare che possono essere effettivamente hackerati. 
  • Script kiddies (o dilettanti) ricorrono a pezzi di codici pre-scritti o determinati programmi per attaccare i sistemi AI.  Generalmente, non sono dotati delle competenze e conoscenze necessarie per scriverne in autonomia.

I rischi sopra discussi, come il report Enisa ha sottolineato, impongono la necessità di pensare a nuove tecniche di sicurezza che siano in grado di fronteggiare le minacce emergenti. Enisa incoraggia a favorire l’innovazione, l’avanguardia e la sensibilizzazione a iniziative di ricerca e sviluppo che rendano l’AI un sistema sempre più efficiente, efficace e sicuro.

Il marchio “Al made in Europe” promosso dall’Agenzia dell’Unione Europea per la Sicurezza Informatica avrà così lo scopo di certificare i più alti livelli etici, di sicurezza e di avanguardia delle intelligenze artificiali.

In questo scenario, la cybersecurity continuerà ad avere un ruolo essenziale.