La sostenibilità per TIM

Bilancio di Sostenibilità 2023

Vogliamo contribuire ad accelerare la crescita sostenibile dell’economia e della società portando valore e benessere alle persone, alle aziende, alle istituzioni. Approfondisci

Ultimi Comunicati Stampa

Redazione ufficio stampa

Leggi gli ultimi comunicati stampa e naviga nell'archivio dell'Ufficio Stampa del Gruppo TIM. Leggi i comunicati

Scarica il PDF

Down

Un caffe con M.R. Taddeo

379 KB

Quando si parla di Intelligenza Artificiale è oggi sempre più inevitabile associarvi anche una riflessione di natura etica; prof.ssa Taddeo, ci vuole definire meglio di cosa l’etica digitale si occupi?

L’etica digitale nasce con l’avvento dell’ICT, quindi è una disciplina accademica che ha la sua storia decennale e indaga le questioni etiche, sociali e legali che le tecnologie digitali, inclusa l’Intelligenza Artificiale predittiva e generativa, comportano. Per farlo studia temi legati alla raccolta, cura, elaborazione e trasmissione dei dati; problemi inerenti al design, sviluppo ed uso degli algoritmi, per arrivare fino alle implicazioni di deontologia professionale legate all’uso delle tecnologie digitali.
Venendo adesso all’AI. È indiscusso che l’AI abbia un alto potenziale nello svolgere compiti, magari ripetitivi e che sia estremamente efficace nel “muoversi” velocemente nel mare magnum dei dati per dare output utili a raggiungere obiettivi complessi. È proprio questa la sfida che abbiamo di fronte: sfruttare l’enorme potenziale dell’AI per raggiungere obiettivi molto complessi a cui da soli non riusciremmo ad arrivare. Mi riferisco, ad esempio, all’uso dell’AI per predire e comprendere i cambiamenti climatici o per supportare ricerche in ambito biomedico, come per esempio la genomica. Ma per raggiungere obiettivi così complessi ed importanti per l’umanità è necessario che si comprendano fino in fondo i rischi che l’AI può comportare, in modo da poterli poi mitigare. Uno dei rischi forse più conosciuti riguarda il così detto bias e le discriminazioni ingiustificate. Questo rischio deriva dai dati che usiamo per addestrare gli algoritmi di AI. Se i dati riflettono pregiudizi socio-culturali, allora l’AI produrrà output inficiati dallo stesso pregiudizio. Pensiamo al famoso caso di qualche anno riportato da Sweeney, in cui i servizi online per verificare le fedine penali apparivano più spesso nei risultati di ricerca per nomi identificabili con la comunità afroamericana rispetto ai risultati per ricerche con nomi identificabili come le altre comunità. Questi sono rischi concreti che minacciano diritti umani e civili fondamentali. Ecco perchè l’etica dell’AI è cruciale. Senza, rischiamo che questa tecnologia mini le fondamenta della nostra società.

Quale è il problema del controllo dell’AI generativa?

Vede, se abbiamo un output problematico, magari con elementi falsi o discriminatori, come frutto di un processo in cui è intervenuto un AI, è difficile investigare quale criterio specifico abbia determinato quella risposta. Facciamo un esempio: se chiedo alla banca un muto, ma questo mi viene negato e la risposta mi viene data a valle di un esame fatto sul “mio caso” da un AI, sarà molto difficile se non impossibile sapere se il diniego sia legato al mio reddito basso a rischio insolvenza del mutuo, oppure sia dovuto ad una discriminazione di genere e sono stata scartata perché donna.
L’AI è di fatto una tecnologia con poca trasparenza e che genera output che non possiamo predire con assoluta certezza. Questo tema della predicibilità è legato al problema del controllo. Entrambi i temi sono centrali quando si considera l’uso dell’AI per prendere decisioni di alto impatto. Il controllo di questa tecnologia è proporzionale alla certezza con cui prevediamo i suoi comportamenti. Questo dovrebbe essere un fattore tenuto in massima considerazione quando si pensa all’adozione di AI e quali compiti delegare a questa tecnologia. Altra questione germana a quella del controllo è l’attribuzione della responsabilità morale (per certi versi anche legale) per le azioni di un sistema di AI. Questo per due ragioni, da un lato l’AI viene sviluppata in modo distribuito con gruppi di ingegneri, sviluppatori che lavorano per aziende o in posti diversi, riutilizzando pezzi di tecnologia prodotti da altri. Dall’altro lato, nella misura in cui l’AI apprende autonomamente come interagire con l’ambiente, può sviluppare comportamenti non previsti e non intesi dai sui programmatori o utenti e questo rende difficile attribuire la responsabilità per questi comportamenti. 

Sul tema della responsabilità morale/legale ci sono ancora ampi margini di intervento, ma l’Europa con l’AI Act di prossima approvazione per la prima volta è apripista rispetto a tutti gli altri Paesi. Prof.ssa Taddeo, un suo commento in merito?

AI Act è il primo framework al mondo che guarda alla regolamentazione dell’AI direttamente, per misurare, mitigare e controllare il “rischio” di cui parlavamo poco fa, andando ad individuare modelli di rischio abbastanza “granulari” in questa prima fase, ma che sicuramente evolveranno con l’evolvere della AI. Reputo questo provvedimento necessario oltre che urgente. La parte che più mi interessa dell’AI Act è quella che si riferisce al conformity assessment. Credo che sia un’idea molto importante. Questo tipo di assessment è una sorta di audit dell’AI per capirne i rischi. È un’idea che finalmente cambia la prospettiva, passiamo da quella un pò banale per cui se progettiamo l’AI bene, allora non ci sono rischi etici, ad una per cui è importante monitorare e verificare l’uso dell’AI per capire di volta in volta quali rischi questa ponga.

Parliamo di AI e mondo del lavoro: se oggi è usuale assegnare ai sistemi intelligenti compiti ripetitivi per guadagnare tempo da dedicare ad altre attività, quali gli scenari nei prossimi anni?

Premetto che bisogna guardare con cautela alle stime che affermano che i sistemi di AI sono una minaccia per l’occupazione, perché queste stime si basano su modellizzazioni di intere professioni (per esempio l’avvocatura, il personale sanitario, gli autisti) che non possono che essere approssimative. Spesso queste stime confondono compiti, per esempio guidare un mezzo di trasporto pesante, con le professioni, per esempio essere un autista. Spesso deleghiamo all’AI un compito non un’intera professione.
Credo, sempre più che nei prossimi anni i professionisti saranno aiutati dai sistemi di AI nello svolgimento di attività pesanti, pericolose, monotone o che richiedono velocità esecutiva. Oggi ci sono già team ibridi di macchine AI ed esseri umani che lavorano insieme: un esempio il pilota automatico che collabora con il pilota umano nel decollo ed atterraggio di un aereo.
L’importante è sfruttare al meglio la potenzialità dei sistemi di AI.

Un’ultima domanda, prof.ssa Taddeo: come vede il ruolo delle Telco con le AI sempre più pervasive?

Di fatto è un binomio inevitabile, nel senso che le AI per operare hanno bisogno di dati il che significa Data Center, bassa latenza e alta sicurezza. Il cloud computing diventerà indispensabile. Se non ci sono questi ingredienti la trasformazione digitale non si attua; ed è anche per questo che le Telco avranno un ruolo fondamentale, sia per i servizi B2B e pr ogressivamente anche in quello B2C.
Le Telco possono essere gli abilitatori di questa trasformazione digitale.