Ultimi Comunicati Stampa

Redazione ufficio stampa

Leggi gli ultimi comunicati stampa e naviga nell'archivio dell'Ufficio Stampa del Gruppo TIM. Leggi i comunicati

La Generative AI è la tecnologia su cui si focalizza il progetto di innovazione TIM denominato “Hybrid Intelligence & Advanced Communications” per individuare nuove opportunità per le attività operative di TIM. Il progetto intende mantenere una forte coniugazione tra gli aspetti “Human” e “not Human” approcciando ad una Hybrid Human-Artificial Intelligence [1]. Vediamo come in questo articolo.

Scarica il PDF

Down

LLM per processo documen ...

1773 KB

Da un punto di vista tecnologico la Generative AI [2] vede come fulcro i Transformer, particolari algoritmi di deep learning che con il concetto di “attenzione” introducono la capacità di apprendere relazioni tra elementi in input accrescendo la capacità di apprendimento e generativa [3]. Open AI con GPT e ChatGPT è stata dirompente ed ha portato alla democratizzazione di questi nuovi modelli svelandone il salto paradigmatico dalla necessità di modelli specifici per compiti specifici alla disponibilità di un unico modello capace di supportare in più compiti, dalla classificazione, alla summarization, etc [4]. Da un punto di vista applicativo e di business il contesto è sicuramente dominato da grandi Player come Microsoft e Google [5,6] ma vede anche una miriade di Startup e Centri di eccellenza che propongono soluzioni [7]. A fronte di questa rivoluzione, TIM ha scelto di investire nell’ambito della Generative AI anche in un ambito di innovazione specifico quale il processo di automazione documentale.

Il fenomeno ChatGPT: Generative AI e Large Language Model

Con l’avvento di ChatGPT nel novembre 2022 si è diffusa l’idea che possa esistere un’Intelligenza Artificiale generale in grado di automatizzare compiti, fornire idee creative e persino scrivere software, sia per aziende che per consumatori. ChatGPT, acronimo di Chatbot Generative Pre-trained Transformer, si basa su un modello di AI ovvero un Large Language Model, nella fattispecie GPT [8, 9], addestrato su grandi quantità di testo al fine di comprendere e generare testo coerente. Un ruolo fondamentale nel campo del Natural Language Processing (NLP) è legato ai Transformers in quanto modelli di apprendimento automatico in grado di “catturare” le relazioni complesse tra parole e concetti. Questi modelli, introdotti nel 2017 nell’articolo “Attention Is All You Need” [2], sono alla base del Generative Pre-trained Transformer (GPT) e sono composti da due componenti principali: l’encoder, che codifica l’input in una rappresentazione vettoriale numerica comprensiva delle relazioni tra parti del testo, e il decoder, che genera l’output basato su questa rappresentazione per produrre un testo coerente con il significato dell’input. I pre-trained transformers hanno permesso di superare le difficoltà di codifica delle parti lessicali, sintattiche, grammaticali, etc… grazie alla capacità di apprendere automaticamente le relazioni tra le parti dei dati in input, detti Token. Sarà quindi il Token l’unità fondamentale per: la trasformazione del testo in vettori di numeri, embeddings; il fine tuning ovvero addestramento su aspetti specifici; il prompting, istruzione data per la generazione del testo desiderato; la completion ovvero il con tenuto generato. Il modello matematico lavorerà sui token di cui è costituito l’input per apprendere e genererà il risultato fornendo una successione di token su base probabilistica/stocastica. In questo senso il modello di generative AI e GPT nella fattispecie non sono “consapevoli” della bontà del contenuto generato seppur plausibile e grammaticalmente corretto. Il prompt engineering si configura quindi come una nuova disciplina per assicurare controllo e correttezza tra quanto si desidera ottenere ed il risultato fornito dal modello. Fake e allucinazioni mascherate dalla plausibilità del testo generato devono quindi essere un punto di forte attenzione ai fini dell’utilizzo professionale e quotidiano di questi sistemi di Intelligenza Artificiale. Nell’era del prompt, dunque, saper fare le domande diviene una competenza determinante, perché si passa dalla ricerca delle informazioni corrette, alla formazione della corretta ricerca. Nasce, così, la cosiddetta promptologia, cioè la nuova abilità ingegneristica di ideare domande per spingere l’Intelligenza Artificiale a fornire risposte appropriate che richiede anche la comprensione del linguaggio e dell’espressione. A valle di questa veloce disamina degli elementi tecnico – scientifici alla base della Generative AI, possiamo dire che i Large Language Models (LLM) come GPT possono essere sfruttati come:

  1. un mezzo per dialogare in linguaggio naturale con una macchina, e quindi come strumento di interazione uomomacchina per comunicare in linguaggio naturale;
  2. come strumento di una Intelligenza Artificiale generale che, se addestrata costantemente e su grande quantità di dati, può indurci a immaginare la nascita di un’entità senziente o per lo meno in grado di generare informazione plausibile, ma non necessariamente corretta data la natura statistica di questa generazione.

Figura 1: Prompt engineering

Clicca qui per ingrandire l'immagine

Applicazione e impatto sul processo documentale in ambito Operation

Tra i progetti di Innovazione si è scelto di concentrarsi sull’automazione dei processi documentali a supporto delle Operations di TIM, con l’obiettivo di mettere la Generative AI al servizio di una fruizione più immediata dell’informazione e una semplificazione dei processi di diffusione della conoscenza. Di seguito vengono descritte le fasi che hanno portato alla costruzione di un Proof of Concept di Questions & Answers (Q&A) basato sulla generazione automatica di risposte a domande comuni estraendo informazioni puntuali da contesti sparsi su documenti eterogenei e non struttur ati. La costruzione del Prototipo di Q&A può essere divisa in due macrofasi: l’ingestion della base di conoscenza e l’interazione con domanda e risposta in linguaggio naturale. La fase di ingestion ha lo scopo di trasformare la collezione di documenti in opportuni vettori numerici, Embeddings. 

Figura 2: Macro Fasi della soluzione di Q&A basata su generative AI

Clicca qui per ingrandire l'immagine

Questa prima fase è di fondamentale importanza e ci ha visto affrontare problemi legati all’eterogeneità della documentazione sia in termini di struttura che di tipologia. Da un punto di vista pragmatico è stata compiuta un’attività di pre-processing sulla documentazione fornita dagli esperti di dominio che è stata di fondamentale importanza per migliorare le performance del Q&A. Come ogni applicazione data driven, anche nel caso di un Q&A abilitato da Generative AI, è necessario che la sorgente di partenza sia epurata, laddove possibile, di informazioni non necessarie, attraverso operazioni quali esplicitazione della conoscenza, arricchimento tramite labelling, pulizia. Il tutto per favorire una migliore ricerca del contenuto informativo ed una segmentazione della conoscenza che possa favorire una risposta precisa e puntuale, anche nel caso in cui la domanda fosse posta in modo generico. Queste operazioni favoriscono la successiva suddivisione in più parti chiamate chunk e vettorizzate tramite l’operazione di embedding, in modo da abilitare i meccanismi statistici di cui discusso nella sezione precedente. Da un punto di vista architetturale possiamo evidenziare come, soprattutto nel caso di documentazione eterogenea, sia necessario sviluppare o avvalersi di strumenti in grado di dare uniformità alla sorgente informativa e successivamente di tecnologie in grado di gestire il ciclo di vita di una nuova forma di salvataggio delle informazioni, i database vettoriali. Essi, infatti, a differenza dei DB tradizionali, consentono operazioni di ricerca e analisi avanzate basate sulla similarità tra vettori, rendendo più efficace il recupero di informazioni rilevanti. Infine, il cuore del prototipo: i modelli di Generative AI. Ma basta soltanto dare delle informazioni corrette per far rispondere il modello in modo corretto? La seconda fase di interazione in linguaggio naturale ha invece risvolti importanti dal punto vista della modalità di generazione della risposta. Tale interazione è mediata da un modello di Generative AI che permette di trasformare la domanda in un vettore numerico, embedding, abilitando così una ricerca semantica nello spazio vettoriale della base di conoscenza. Il risultato di questa ricerca potrà così essere ritrasformato in testo per fornire una risposta in linguaggio naturale. Ma come essere sicuri che la risposta sia adeguata all’in terlocutore? A questa domanda non vi è una risposta univoca, in quanto molto dipende dallo Use Case. Possiamo dire in generale che un’operazione di arricchimento della domanda posta attraverso una contestualizzazione porta il modello ad essere più allineato a quanto atteso dall’interlocutore ovvero dall’utilizzatore finale del Q&A; questa attività di arricchimento è propria del prompt engineering. Le due macrofasi descritte mettono in luce nuovi compiti e ruoli che ricadono nel concetto dello “human in the loop”, ovvero della necessità di un controllo ed una validazione continua della soluzione basata su Generative AI da parte degli esperti di dominio della conoscenza specifica. E’ altresì necessario semplificare molto la diffusione e il reperimento dell’informazione dalla fonte al suo utilizzo di valore nei processi operativi come, ad esempio, quello dei tecnici presso casa Cliente o altro.

Figura 3: L’architettura logico-funzionale della soluzione

Clicca qui per ingrandire l'immagine

Conclusioni

Il lavoro svolto fino ad ora ci ha permesso di fare esperienza sulla Generative AI ed analizzare competenze e ruoli professionali che impatteranno nei prossimi anni. Le tecnologie sono state validate attraverso lo sviluppo del prototipo di Q&A, con l’obiettivo di dimostrare l’eff icacia della Generative AI, opportunamente istruita e supervisionata dall’uomo, nell’automazione dei sistemi documentali; ovvero nella semplificazione e velocizzazione dell’accesso all’informazione, nell’organizzazione della conoscenza, nella revisione ed ottimizzazione dei processi di creazione della documentazione tecnica e commerciale. Le prime evidenze ottenute sono incoraggianti e permettono di tranquillizzarci circa il timore di perdere il controllo dei sistemi basati sulla Generative AI e di non riuscire ad indirizzarli secondo i nostri desideri. Sarà però solo la messa a terra di una sperimentazione in campo a permetterci di misurare gli impatti di una soluzione tecnologica basata sulla Generative AI sullo Use Case descritto e su scenari futuri.

Bibliografia

  1. Hybrid Human-Artificial Intelligence (computer.org)
  2. “Attention Is All You Need” - Vaswani et al., 2017
  3. What is Generative AI? | World Economic Forum (weforum.org)
  4. openai.com
  5. https://learn.microsoft.com/it-it/azure/ai-services/openai/overview
  6. https://cloud.google.com/vertex-ai?hl=it
  7. Generative AI: A Creative New World | Sequoia Capital US/Europe
  8. “Language Models are Few-Shot Learners” - Tom B. Brown et al., 2020
  9. https://www.marktechpost.com/2023/03/21/a-history-of-generative-ai-from-gan-to-gpt-4/