La sostenibilità per TIM

Bilancio di Sostenibilità 2023

Vogliamo contribuire ad accelerare la crescita sostenibile dell’economia e della società portando valore e benessere alle persone, alle aziende, alle istituzioni. Approfondisci

Ultimi Comunicati Stampa

Redazione ufficio stampa

Leggi gli ultimi comunicati stampa e naviga nell'archivio dell'Ufficio Stampa del Gruppo TIM. Leggi i comunicati

L’articolo esplora l’intersezione tra Intelligenza Artificiale (IA) e Cybersecurity, mettendo in evidenza come le tecnologie basate sull’IA stiano rivoluzionando il campo della sicurezza informatica. Vengono esaminati i metodi con cui l’IA contribuisce al rafforzamento delle difese contro le minacce informatiche, attraverso il riconoscimento di schemi complessi e l’apprendimento autonomo per prevenire attacchi. L’analisi si estende anche agli utilizzi malevoli delle stesse tecnologie di IA, con cenni ai rischi e alle sfide etiche che esse pongono.

Scarica il PDF

Down

Intelligenza Artificiale...

1690 KB

L’emergere di strumenti di Intelligenza Artificiale (IA) generativa rivolti al consumo su larga scala ha rapidamente e radicalmente modificato l’opinione pubblica relativamente al potere e al potenziale dell’IA. Precedentemente relegata ad un utilizzo molto più circoscritto e limitato, nell’ultimo anno si è rivelata come un rivoluzionario avanzamento della tecnologia che promette opportunità (e rischi) notevoli. Si prevede che l’IA avrà un grande impatto sul mondo del lavoro e automatizzerà la metà di tutte le professioni tra il 2040 e il 2060 [1]. Ne consegue che le professionalità e gli strumenti nell’ambito della Cybersecurity si evolveranno, anche in funzione dei cambiamenti che l’Intelligenza Artificiale apporterà al panorama delle minacce informatiche da fronteggiare.

Introduzione all’Intelligenza Artificiale

L’Intelligenza Artificiale (IA) è una branca dell’informatica che si occupa di creare algoritmi capaci di eseguire compiti che, tradizionalmente, richiederebbero l’intelligenza umana. Questi compiti includono: il riconoscimento di schemi, l’apprendimento da dati, l’interpretazione del linguaggio naturale, la presa di decisioni e la soluzione di problemi. Al cuore dell’IA ci sono gli algoritmi di machine learning e deep learning, che permettono ai sistemi di migliorare le loro prestazioni apprendendo automaticamente dall’esperienza. Il machine learning utilizza modelli statistici per fare previsioni o prendere decisioni basandosi su dati passati, mentre il deep learning, sfruttando reti neurali artificiali con molteplici strati, è in grado di catturare relazioni complesse nei dati. L’ultima frontiera dell’Intelligenza Artificiale è quella cosiddetta Generativa (GenAI), che non si limita a interpretare o analizzare i dati, ma è capace di crearne di nuovi, imitando o innovando su basi esistenti. Questo tipo di IA utilizza approcci come le reti generative avversarie (GAN) [2] e i modelli di linguaggio per generare contenuti originali, che vanno da immagini e musica a testi e oltre. Questa capacità di generare contenuti nuovi e personalizzati apre nuove frontiere nell’arte, nel design, nell’educazione e nell’intrattenimento, promettendo di rivoluzionare il modo in cui creiamo e interagiamo con i media digitali. All’interno dell’universo dell’Intelligenza Artificiale generativa, i Large Language Models (LLM) rappresentano una pietra miliare per il trattamento e la generazione del linguaggio naturale. Questi modelli sono stati addestrati su vasti corpus di testo che abbracciano l’intera gamma della conoscenza e dell’espressione umana disponibile online. Attraverso l’apprendimento profondo e l’analisi di miliardi di parole, gli LLM hanno acquisito una notevole capacità di comprendere e generare testi in modo coerente e contestualmente rilevante, spaziando dalla creazione di articoli e racconti al rispondere a domande e simulare dialoghi. La loro flessibilità e potenza li rendono strumenti preziosi per una varietà di applicazioni, come l’assistenza automatizzata al cliente, la creazione di contenuti, la traduzione automatica e l’istruzione, sfidando continuamente i confini tra la comunicazione umana e quella artificiale [3]. Abbiamo chiesto ad un modello di GenAI di generare un diagramma educativo che illustra le due fasi principali nel funzionamento dei Large Language Models (LLM), ottenendo la Fig.1 come risultato. 

Figura 1: Immagine generata con GenAI che rappresenta l’addestramento di un LLM

Clicca qui per ingrandire l'immagine

L’immagine abbozza una rappresentazione visiva che evidenzia la due fasi di training degli LLM: la fase di pre-training, dove una vasta raccolta di testi viene elaborata e utilizzata per l’addestramento iniziale della rete neurale, e la fase di fine-tuning, dove il modello viene ulteriormente addestrato su un dataset specifico per compiti precisi. Riteniamo sia importante evidenziare anche le limitazioni di queste tecnologie: limitazioni nella precisione, generalizzazione eccessiva, ambiguità, variazioni di stile, potenziali bias e difficoltà nel rappresentare dettagli tecnici specifici (i.e. le parti testuali). Questo può risultare in rappresentazioni semplificate o vagamente accurate di concetti complessi. È importante tenere a mente, tuttavia, che siamo solo agli inizi dell’evoluzione di queste impressionanti tecnologie.

Applicazioni dell’Intelligenza Artificiale in Cybersecurity

L’Intelligenza Artificiale sta trasformando il campo della Cybersecurity, tramite nuovi strumenti e approcci per affrontare minacce sempre più avanzate. Le tecnologie IA possono rapidamente individuare correlazioni e modelli nei dati. Attualmente, l’IA è principalmente utilizzata come supporto all’analista, operando in un ambiente semiautomatico. La Fig.2 riassume alcuni degli utilizzi difensivi dell’Intelligenza Artificiale. Le tre principali aree della sicurezza informatica in cui l’IA è efficacemente integrata sono: il rilevamento delle minacce, l’automazione di eventuali risposte ad esse e la loro previsione o prevenzione.

Figura 2: Applicazioni dell'Intelligenza Artificiale nella Cybersecurity

Clicca qui per ingrandire l'immagine

Rilevamento delle minacce
L’Intelligenza Artificiale ha ottenuto risultati significativi nel rilevare le minacce informatiche. Gli algoritmi di machine learning possono esaminare enormi quantità di dati in tempo reale per individuare comportamenti anomali o modelli non usuali. Alcuni esempi includono:

  • rilevamento delle anomalie anche quando le minacce sono nuove o sconosciute;
  • analisi comportamentale per individuare attività potenzialmente dannose o non autorizzate;
  • rilevamento di malware.

Automazione della risposta alle minacce
Oltre al rilevamento, l’Intelligenza Artificiale permette una risposta automatizzata più efficiente alle minacce. Ciò implica che i sistemi di sicurezza possano reagire con maggiore prontezza ed efficienza alle minacce in tempo reale.
Ecco alcuni esempi di automazione nella risposta alle minacce:

  • sistema di risposta automatica: bloccare l’accesso alle risorse critiche, isolare dispositivi compromessi e applicare regole di sicurezza in modo autonomo;
  • analisi delle vulnerabilità: individuare e valutare le vulnerabilità nei sistemi;
  • correlazione degli eventi: individuare correlazioni tra eventi apparentemente non collegati per rilevare attacchi complessi e orchestrati.

Previsione e prevenzione
L’Intelligenza Artificiale non solo risponde alle minacce esistenti, ma può anche prevedere e prevenire quelle future [4]. L’analisi predittiva basata sull’IA consente di identificare possibili scenari di attacco, permettendo alle organizzazioni di adottare misure preventive. Alcuni esempi includono:

  • modelli di previsione delle minacce: analisi di dati storici e attuali per individuare tendenze e modelli che potrebbero segnalare futuri attacchi;
  • simulazioni di attacco: simulare potenziali scenari di attacco e valutare la resilienza dei sistemi;
  • adattamento delle politiche di sicurezza: aggiornare le politiche di sicurezza in tempo reale, in base alle minacce attuali e alle vulnerabilità rilevate.

L’NLP (Natural Language Processing) e la GenAI sono strumenti preziosi nella Cyber Threat Intelligence (CTI). L’NLP analizza grandi quantità di testo da fonti aperte, forum underground, dark web e social media per identificare indizi, pattern e informazioni relative a minacce cibernetiche. La GenAI genera modelli predittivi basati su dati storici e attuali per anticipare attacchi potenziali e sviluppare strategie di difesa. Insieme, queste tecnologie migliorano notevolmente la capacità di rilevare e mitigare le minacce cibernetiche in modo proattivo, sia in utilizzi automatici continui che in assistenza al lavoro dell’analista CTI.

Utilizzi innovativi in Cybersecurity TIM
Diversi sono gli utilizzi dell’AI/ML sviluppati a supporto degli strumenti di sicurezza interni al nostro contesto enterprise, come ad esempio l’analisi automatica degli eventi di spam/phishing e la prioritizzazione degli indicatori di compromissione nella piattaforma di Threat Intelligence aziendale. Attraverso collaborazioni con le Università e Dottorati di Ricerca, siamo in fasi di studio e prototipazione di strumenti AI nell’ambito di analisi automatica dei malware [5] e arricchimento/contestualizzazione automatica degli eventi cyber da fonti eterogenee OSINT e CLOSINT.

Utilizzi malevoli dell’Intelligenza Artificiale

L’Intelligenza Artificiale, pur offrendo notevoli vantaggi in diversi settori, può essere impiegata anche per scopi malevoli. Gli attacchi basati sull’IA possono minacciare la sicurezza nazionale e la stabilità globale, oltre a danneggiare singole organizzazioni private. È essenziale riconoscere questi rischi e sviluppare adeguate misure di sicurezza per prevenire l’abuso dell’IA. La regolamentazione, la formazione, la sicurezza informatica avanzata e la consapevolezza sull’IA sono tutti elementi cruciali per mitigare le minacce correlate all’utilizzo malevolo di questa tecnologia. È importante sottolineare che mentre il crimine informatico potrà beneficiare delle tecnologie di Intelligenza Artificiale senza moderazioni, censure e limitazioni, probabilmente chi difende le infrastrutture dovrà fare i conti con una Intelligenza Artificiale potenzialmente meno efficace dal punto di vista della difesa. Questo perché dovrà essere normata e bilanciata dal punto di vista etico.

Generazione automatizzata di fake news
Uno dei principali rischi legati all’IA è l’utilizzo per generare contenuti falsi o fuorvianti, noti come “fake news”. Si possono creare articoli, rapporti, post o contenuti multimediali sui social media che sembrano autentici, ma sono stati concepiti per diffondere disinformazione, influenzare opinioni pubbliche o danneggiare la reputazione di individui o organizzazioni. Con l’ausilio delle tecnologie IA, è possibile manipolare contenuti multimediali come video, audio e immagini per supportare le fake news generate, questa tecnica è nota come “deepfake” e può avere gravi conseguenze in termini di reputazione e sicurezza.

Attacchi di phishing avanzati
Una delle tattiche più efficaci per perpetrare attacchi informatici è il phishing. Gli algoritmi di generazione del testo possono creare messaggi di phishing che sembrano provenire da fonti affidabili, ingannando le vittime e spingendole a divulgare informazioni sensibili. Questo approccio diventa particolarmente efficace quando l’IA si combina con le tecniche di social engineering, sfruttando le informazioni personali (spesso pubbliche) delle vittime per creare attacchi personalizzati e sofisticati.

Attacchi DDoS avanzati
Gli attacchi distribuiti di Denial of Service (DDoS) hanno beneficiato dell’uso dell’IA, ma non in termini di aumento della potenza in termini di volumi di traffico. Piuttosto, l’IA ha migliorato l’efficacia degli attaccanti nell’orchestrare e mascherare gli attacchi DDoS, rendendoli più difficili da contrastare. Questi attacchi sono diventati particolarmente comuni in un contesto di tensioni geopolitiche internazionali, spesso generate da conflitti in corso, e possono causare interruzioni nei servizi online, danneggiando aziende, organizzazioni e, ovviamente, gli utenti.

Vulnerabilità delle applicazioni di Intelligenza Artificiale

Le applicazioni di Intelligenza Artificiale, come qualsiasi altro software, possono essere affette da vulnerabilità, spesso sfruttate dagli attaccanti per perpetrare i loro attacchi. Di seguito sono elencate alcune delle principali vulnerabilità delle applicazioni di IA e come queste possono essere sfruttate per scopi malevoli.

Evasion Attack e Prompt injection
Se non addestrati a riconoscere input sospetti, i modelli AI potrebbero essere vulnerabili ai cosiddetti “Evasion Attack”, i quali inducono il modello a commettere errori. Questi attacchi sono progettati con l’intento di fornire input al modello che sembrano normali alle ispezioni umane o ai processi di validazione, ma che sono stati manipolati in modo tale da indurre il modello a fare una classificazione o previsione errata. In Fig.3 un esempio di Evasion Attack: con piccole modifiche, le quali non impedirebbero ad un essere umano di riconoscere il segnale di STOP, si potrebbe invece ingannare un modello di IA se non ben addestrato.

Figura 3: Esempio di Evasion Attack

Clicca qui per ingrandire l'immagine

Un’applicazione di Intelligenza Artificiale in esecuzione su veicoli autonomi, che si basa sul riconoscimento automatico delle immagini dei segnali stradali, può essere influenzata dalla manipolazione dei segnali stradali. Nel contesto dei Large Language Model (LLM), il termine “prompt injection” si riferisce a una potenziale vulnerabilità in cui un attaccante manipola il prompt fornito al modello per ottenere risultati desiderati o dannosi. Questa tecnica potrebbe consentire a un attaccante di influenzare in modo fraudolento le risposte generate dal modello, inducendolo a produrre risultati indesiderati o persino pericolosi.

Data poisoning
Una delle vulnerabilità più comuni nelle applicazioni di IA è la manipolazione dei dati. Gli attaccanti possono introdurre dati dannosi o fasulli nei set di addestramento degli algoritmi di machine learning, compromettendo la sicurezza e l’accuratezza dei modelli di IA. Ciò può portare a risultati distorti, decisioni dannose e comportamenti imprevisti. Si potrebbe per esempio indurre un modello di IA ad una certa classificazione (sbagliata) con riferimenti a input specifici, iniettando una vera e propria backdoor [5].

Manipolazione delle decisioni autonome
L’IA è utilizzata per prendere decisioni autonome in una varietà di contesti, come il trading finanziario e la guida autonoma. Purtroppo, un sistema completamente autonomo potrebbe essere manipolato per scopi malevoli, come influenzare il mercato finanziario o causare incidenti stradali intenzionali. È cruciale riconoscere queste vulnerabilità e adottare misure di sicurezza adeguate a proteggere le applicazioni di IA. Queste misure includono l’implementazione di controlli di accesso, la crittografia dei dati, la gestione delle chiavi, la validazione dei dati di input e l’addestramento di modelli di IA robusti definiti Generative Adversarial Network (GAN).

Aspetti etici dell’utilizzo dell’Intelligenza Artificiale nella Cybersecurity

Nel contesto della Cybersecurity, una delle principali questioni da considerare è il rischio per la privacy e la sorveglianza digitale. Questo è uno dei principali rischi individuati dalla Commissione Europea per i prossimi 10 anni [6]. L’IA può essere utilizzata per monitorare le attività online al fine di rilevare potenziali minacce alla sicurezza, ma c’è il rischio che tale monitoraggio possa essere utilizzato per scopi non consentiti dai principi etici. È fondamentale trovare un equilibrio tra la necessità di proteggere la sicurezza e il rispetto dei diritti individuali alla privacy. Inoltre, per quanto riguarda la responsabilità legale, sorgono domande importanti: chi è responsabile in caso di errore dell’IA? In sintesi, l’uso dell’IA nella Cybersecurity offre numerosi vantaggi, ma solleva anche significative sfide etiche. È essenziale che le organizzazioni affrontino queste sfide in modo etico, rispettando i principi di privacy, trasparenza, equità e responsabilità.

Conclusioni

L’interazione tra Intelligenza Artificiale e Cybersecurity rappresenta una delle frontiere più promettenti e, al contempo, impegnative del nostro tempo. L’IA, con le sue capacità di apprendimento automatico e di elaborazione dei dati su larga scala, offre strumenti potentissimi per rafforzare le difese informatiche, individuando minacce in tempo reale, prevedendo attacchi futuri e rispondendo in modo autonomo agli incidenti di sicurezza. Tuttavia, questa simbiosi porta con sé sfide significative, tra cui questioni etiche, la necessità di proteggere gli algoritmi di IA da manipolazioni e la garanzia che l’uso dell’IA nella sicurezza informatica non comprometta la privacy degli utenti. Non ultimo, l’Intelligenza Artificiale è riconosciuta come strumento potente al servizio anche e soprattutto degli attaccanti, estremamente facilitati nell’ingresso nel cybercrime anche in assenza di elevate competenze. Man mano che procediamo in questa era digitale, è fondamentale che sviluppatori, esperti di sicurezza, policy maker e la società nel suo complesso collaborino per navigare in queste acque complesse, garantendo che i benefici dell’IA nella Cybersecurity siano realizzati in modo responsabile e sostenibile. Così facendo, possiamo sperare di creare un ambiente digitale più sicuro per tutti, sfruttando al massimo le straordinarie potenzialità dell’Intelligenza Artificiale a beneficio della sicurezza collettiva.

Riferimenti

  1. “The economic potential of generative AI,” McKinsey & Company, June 14, 2023, https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-ai-the-next-productivity-frontier#/
  2. Goodfellow, Ian; Pouget-Abadie, Jean; Mirza, Mehdi; Xu, Bing; Warde-Farley, David; Ozair, Sherjil; Courville, Aaron; Bengio, Yoshua (2014). Generative Adversarial Nets (PDF). Proceedings of the International Conference on Neural Information Processing Systems (NIPS 2014). pp. 2672–2680
  3. Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., & Sutskever, I. (2019). Language models are unsupervised multitask learners. OpenAI blog, 1(8), 9
  4. ENISA Research and Innovation Brief, ARTIFICIAL INTELLIGENCE AND CYBERSECURITY RESEARCH, June 2023, https://www.enisa.europa.eu/publications/artificial-intelligence-and-cybersecurity-research
  5. Mario D’Onghia, Federico Di Cesare, Luigi Gallo, Michele Carminati, Mario Polino, and Stefano Zanero. 2023. Lookin’ Out My Backdoor! Investigating Backdooring Attacks Against DL-driven Malware Detectors. In Proceedings of the 16th ACM Workshop on Artificial Intelligence and Security (AISec ’23). Association for Computing Machinery, New York, NY, USA, 209–220
  6. Rossella Mattioli, Apostolos Malatras, (ENISA) - Eve Naomi Hunter, Marco Gino Biasibetti Penso, Dominic Bertram, Isabell Neubert, (Detecon). IDENTIFYING EMERGING CYBER SECURITY THREATS AND CHALLENGES FOR 2030, March 2023

Acronimi

CTI         Cyber Threat Intelligence

DDos     Denial of Service

GAN      Generative Adversarial Network

GenAI    Generative AI

IA            Intelligenza Artificiale

LLM        Large Language Models

NLP Natural Language Processing