La sostenibilità per TIM

Bilancio di Sostenibilità 2023

Vogliamo contribuire ad accelerare la crescita sostenibile dell’economia e della società portando valore e benessere alle persone, alle aziende, alle istituzioni. Approfondisci

Ultimi Comunicati Stampa

Redazione ufficio stampa

Leggi gli ultimi comunicati stampa e naviga nell'archivio dell'Ufficio Stampa del Gruppo TIM. Leggi i comunicati

Scarica il PDF

Down

Dibattito responsab ...

1737 KB

Tutti i prodotti, compresi programmi ed applicazioni software, devono essere associati ad una responsabilità per i danni che possono causare a seguito di malfunzionamenti. Il tema della responsabilità risulta particolarmente complesso per i sistemi di Intelligenza Artificiale (IA): chi risponde infatti per un’azione dannosa a seguito di decisioni di un sistema di IA? La causa del danno deriva da dati errati su cui si è basata la decisione di IA, da un malfunzionamento dell’algoritmo, da un uso improprio del sistema o da una sua evoluzione non prevista? Quando un sistema di IA generativa genera testo, audio o immagini a partire da elementi protetti da diritto d’autore si tratta di semplice ispirazione o di violazione di copyright? I sistemi basati sull’Intelligenza Artificiale devono necessariamente gestire in modo appropriato la questione per poter godere della fiducia degli utilizzatori e dare avvio ad un pieno sviluppo ed utilizzo della tecnologia in diversi campi, compreso quello delle telecomunicazioni, e per innumerevoli applicazioni a beneficio di cittadini, imprese e amministrazione pubblica. Il concetto è esplicitamente riconosciuto dalla Commissione Europea nella relazione sulle implicazioni dell’Intelligenza Artificiale [1], dove è sottolineata l’importanza di un quadro chiaro in materia di sicurezza e di responsabilità.

Le complessità derivanti dall’Intelligenza Artificiale

Vi sono alcune caratteristiche intrinseche dei sistemi di Intelligenza Artificiale che rendono particolarmente complesse la comprensione delle possibili cause di un danno e l’applicazione in generale delle norme sulla responsabilità. Di conseguenza le vittime di danni causati dai sistemi di IA potrebbero andare incontro a difficoltà e costi nel risalire alla causa del danno per il quale richiedere il risarcimento e nel dimostrarlo, rischiando quindi di non essere adeguatamente risarcite. I sistemi di Intelligenza Artificiale presentano sfide uniche in termini di responsabilità che emergono principalmente dalle peculiarità rappresentate in Tab.1 relative a: autonomia avanzata, opacità degli algoritmi, clausole di esclusione di responsabilità, molteplicità di attori, rischi di abuso.

Tabella 1: Principali caratteristiche dei sistemi di Intelligenza Artificiale che aggiungono complessità al risarcimento per danni subiti

Clicca qui per ingrandire l'immagine

L’importanza della responsabilità

Stabilire delle garanzie in caso di danni e problemi derivanti dall’utilizzo di sistemi basati sull’Intelligenza Artificiale contribuisce a creare un clima positivo sia per gli investimenti da parte dell’industria, sia per l’adozione della tecnologia da parte di cittadini ed imprese. Secondo un sondaggio svolto da Ipsos Belgium e iCite per la Commissione Europea [2], pubblicato a luglio 2020, la responsabilità per i danni causati dall’IA rappresenta uno dei principali ostacoli esterni per le imprese europee nel proprio contesto di business e, restringendo il campo alle sole imprese che non hanno ancora adottato soluzioni di IA, è ritenuta il primo ostacolo in assoluto. In particolare, come mostrato in Fig.1, costituiscono una sfida importante nell’adozione dell’IA da parte delle imprese ostacoli di tipo finanziario ed a livello di standardizzazione tecnica per lo scambio dei dati oltre che ostacoli legali legati in particolar modo alla responsabilità dei danni.

Figura 1: Principali ostacoli esterni alle aziende nell’uso dell’Intelligenza Artificiale in UE secondo lo studio Ipsos-ICite “European enterprise survey on the use of technologies based on Artificial Intelligence”

Clicca qui per ingrandire l'immagine

L’approccio europeo e le attività legislative in corso

In ambito europeo sono state avviate da alcuni anni e sono tuttora in corso iniziative legislative mirate a stabilire un quadro armonizzato di norme, con l’obiettivo di favorire l’evoluzione tecnologica garantendo al contempo il rispetto dei diritti degli individui. In particolare, per far fronte alle sfide derivanti dalla diffusione dell’Intelligenza Artificiale, è stato proposto dalla Commissione Europea ad aprile 2021 un nuovo regolamento sull’Intelligenza Artificiale, denominato AI Act, che mira a prevenire i danni e ridurre i rischi garantendo a cittadini ed imprese sicurezza e fiducia nell’utilizzo dell’IA grazie a regole flessibili e proporzionate a seconda dei rischi specifici posti dai sistemi di IA [3]. Considerato che le regole dell’IA Act, seppur mirate a minimizzare i rischi, non consentiranno di eliminare completamente i danni causati dall’uso di sistemi di IA, sono parallelamente in corso attività specifiche in tema di responsabilità per la revisione e l’adeguamento del quadro legislativo esistente. Le norme attuali sono basate da un lato sull’applicazione della direttiva sulla responsabilità per danno da prodotti difettosi [4] che risale a quasi 40 anni fa e che regola a livello europeo la responsabilità oggettiva del produttore di prodotti difettosi, e dall’altro sull’applicazione di norme nazionali sulle azioni e verifiche necessarie da parte del danneggiato per ottenere il risarcimento. Tale attività di adeguamento delle norme sulla responsabilità ha portato all’adozione da parte della Commissione Europea a settembre 2022 di due proposte legislative attualmente in discussione presso le istituzioni europee [6]:

  • la revisione della Direttiva sulla responsabilità per danno da prodotti difettosi [7] che aggiorna le regole della responsabilità adeguandole all’era digitale specificando la loro applicazione anche a software e sistemi di Intelligenza Artificiale;
  • la proposta di una nuova Direttiva sulla responsabilità civile extracontrattuale dell’Intelligenza Artificiale (denominata AI Liability Directive) [8] che mira ad assicurare una migliore tutela per i danni causati dall’Intelligenza Artificiale intervenendo sull’onere della prova nelle richieste di risarcimento.

Quest’ultima proposta legislativa è espressamente legata alla responsabilità per i sistemi di Intelligenza Artificiale e mira ad armonizzare a livello europeo le norme sulla responsabilità civile extracontrattuale con l’obiettivo di rafforzare la fiducia nella tecnologia e garantire un regime di responsabilità efficiente in cui le richieste di risarcimento siano onorate. Sul fronte economico sono promessi sostanziali benefici, con un potenziale aumento del valore del mercato dell’IA compreso tra 500 milioni e 1,1 miliardi di euro [8].

Approcci normativi sull’Intelligenza Artificiale extra UE

La concezione, l’utilità e l’utilizzo, nonché la regolamentazione dei sistemi di Intelligenza Artificiale sono profondamente diversi a seconda dei paesiì del mondo, determinati da logiche storiche e geopolitiche. Cina e Stati Uniti si trovano oggi agli antipodi di un possibile spettro normativo che simboleggia il modo di regolamentare l’Intelligenza Artificiale, mentre l’Unione Europea cerca di offrire una soluzione in termedia [11].
In Cina la tecnologia è sottoposta al controllo statale, ed è alla base di interessi primariamente economici e geopolitici: il governo cinese ha recentemente introdotto la necessità per le imprese di ottenere licenze specifiche nel momento in cui queste vogliano fornire servizi utilizzando IA generativa, ed offrire garanzie di integrità, sicurezza e ordine [12]. Il Governo intende assicurarsi che le informazioni generate dalle IA siano compatibili con i suoi interessi, ma non sembra voler frenare questo progresso, al contrario mira ad utilizzarlo strategicamente per potenziare la propria importanza a livello commerciale e tecnologico. In tema di responsabilità vi sono state discussioni sulla natura giuridica dell’IA, volte a valutare se trattasi effettivamente di un prodotto, cioè un bene commercializzato sul mercato e quindi soggetto alla normativa cinese sulla responsabilità per prodotti difettosi. In tal caso, l’onere della prova sarebbe a carico del ricorrente, che dovrebbe provare il difetto del prodotto, e dell’eventuale danno risponderebbe, per responsabilità oggettiva, il produttore [13]. Questa interpretazione è abbastanza vicina a quella europea, ma non considera la difficoltà, per l’utente finale, di provare il malfunzionamento del sistema di IA da lui utilizzato.
Negli USA, la tendenza è stata quella di evitare una regolamentazione diretta dell’IA attraverso normative centrali. Anche se predomina un sentimento di regolamentazione minima a livello federale, alcune agenzie come la Federal Trade Commission (FTC) hanno assunto un approccio proattivo verso specifiche sfide dell’IA, concentrandosi specialmente sulla trasparenza e sulle pratiche ingannevoli che influenzano i consumatori, in particolare nelle loro decisioni finanziarie. La FTC punta a sanzionare le imprese che forniscono informazioni fuorvianti sui loro prodotti [14] , intervenendo ex-postnel mercato anziché attraverso normative preventive. In assenza di un quadro federale completo, i singoli Stati hanno affrontato singolarmente temi regolamentari legati all’IA. Questo approccio si è tradotto in un panorama normativo diversificato e frammentato: proprio ciò che l’UE intende evitare. Ad esempio, la città di New York impone verifiche sui pregiudizi per gli strumenti automatizzati di decisione sull’assunzione di personale, mentre in Colorado vigono leggi che proteggono dalle pratiche assicurative sleali guidate dall’IA. Si evidenzia tuttavia che negli Stati Uniti, in ambito istituzionale a livell o federale, sono state recentemente avviate iniziative ed azioni volte ad uno sviluppo ed utilizzo responsabile dell’IA a tutela dei cittadini e contro ogni discriminazione [15] ed il paese si sta mostrando incline a lavorare in modo collaborativo sull’IA, con una tendenza crescente ad allinearsi agli approcci internazionali, in particolare dell’Unione Europea.

Conclusioni

La diffusione di sistemi basati sull’Intelligenza Artificiale pone nuove sfide anche in termini di responsabilità, considerato che alcune peculiarità dell’Intelligenza Artificiale comportano maggiore difficoltà e complessità per il risarcimento dei danni causati dalla tecnologia. Il tema deve essere affrontato in modo da garantire lo stesso livello di protezione concesso in caso di danni relativi a tecnologie tradizionali ed allo stesso tempo ci siano le condizioni per lo sviluppo e l’innovazione tecnologica.
Nel contesto innovativo di impiego sempre più spinto dell’Intelligenza Artificiale, la Cina segue un approccio fortemente basato su un controllo statale ex ante, mentre gli USA un approccio basato su interventi ex-post e su regole frammentate per i singoli stati. In Europa si punta a trovare un equilibrio tra la protezione dei cittadini dai rischi legati all’IA e la promozione dell’innovazione da parte delle imprese; tramite l’elaborazione di un quadro legislativo armonizzato specif ico per l’IA, che preveda anche una revisione delle norme in materia di responsabilità, si mira a favorire lo sviluppo e l’impiego della tecnologia nei diversi settori compreso quello delle telecomunicazioni.

Bibliografia

  1. Relazione COM(2020) 64 final della Commissione Europea al Parlamento Europeo, al Consiglio e al Comitato Economico e Sociale europeo sulle implicazioni dell’Intelligenza Artificiale, dell’Internet delle cose e della robotica in materia di sicurezza e di responsabilità - febbraio 2020 - disponibile al link EC Report 10022020 (europa.eu)
  2. Studio condotto da Ipsos e iCite per la Commissione Europea pubblicato in data 28 luglio 2020 e disponibile al link European enterprise survey on the use of technologies based on artificial intelligence | Shaping Europe’s digital future (europa.eu)
  3. Proposta COM(2021) 206 final di Regolamento del Parlamento Europeo e del Consiglio che stabilisce regole armonizzate sull’Intelligenza Artificiale (legge sull’Intelligenza Artificiale) e modifica alcuni atti legislativi dell’Unione del 21.4.2021 disponibile al link EUR-Lex - 52021PC0206 - EN - EUR-Lex (europa.eu)
  4. Direttiva 85/374/CEE del Consiglio del 25 luglio 1985 relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati Membri in materia di responsabilità per danno da prodotti difettosi disponibile al link EUR-Lex - 31985L0374 - IT (europa.eu)
  5. LIBRO BIANCO sull’Intelligenza Artificiale - Un approccio europeo all’eccellenza e alla fiducia pubblicato dalla Commissione Europea in data 19.2.2020 e disponibile al link White Paper on Artificial Intelligence: a European approach to excellence and trust (europa.eu)
  6. Comunicato stampa CE “Nuove norme in materia di responsabilità per i prodotti e l’IA per proteggere i consumatori e promuovere l’innovazione” del 28 settembre 2022 disponibile al link Nuove norme in materia di responsabilità per i prodotti e l’IA per proteggere i consumatori (europa.eu)
  7. Proposta COM(2022) 495 final del 28.9.2022 di Direttiva del Parlamento Europeo e del Consiglio sulla responsabilità per danno da prodotti difettosi disponibile al link EUR-Lex - 52022PC0495 - EN - EUR-Lex (europa.eu)
  8. Proposta COM(2022) 496 final del 28.09.2022 di Direttiva del parlamento Europeo e del Consiglio relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’Intelligenza Artificiale (direttiva sulla responsabilità da Intelligenza Artificiale) disponibile al link EUR-Lex - 52022PC0496 - EN - EUR-Lex (europa.eu)
  9. Report conclusivo e contributi alla consultazione CE su “Adapting Civil Liability Rules to the Digital Age and Artificial Intelligence” (18 ottobre 2021 – 10 gennaio 2022) disponibili al link Product Liability Directive - Adapting liability rules to the digital age, circular economy and global value chains (europa.eu)
  10. Domande e risposte sulla direttiva sulla responsabilità da Intelligenza Artificiale pubblicate dalla CE in data 28 settembre 2022 e disponibili al link Domande e risposte: direttiva sulla responsabilità da Intelligenza Artificiale (europa.eu)
  11. Trustible, How Does China’s Approach to AI Regulation Differ from the US and EU?, Forbes, 18 luglio 2023, https://www.forbes.com/sites/forbeseq/2023/07/18/how-does-chinas-approach-to-ai-regulation-differ-from-the-us-and-eu/
  12. PCCN.com, Interim Measures for the Management of Generative Artificial Intelligence Services officially implemented, TMTnewsflash, Tiang&Partners, agosto 2023, https://www.pwccn.com/en/tmt/interim-measures-for-generative-ai-servicesimplemented-aug2023.pdf
  13. R.Cai, X. Chen, S. Zhang, Legal Implications of Artificial Intelligence in China, The LegalTech Book, 20 luglio 2020. https://onlinelibrary.wiley.com/doi/book/10.1002/9781119708063
  14. Section (5)(a) dell’FTC Act, https://www.ftc.gov/legal-library/browse/statutes/federal-trade-commission-act
  15. Annuncio del 4 maggio 2023 dell’Amministrazione Biden-Harris su “New Actions to Promote Responsible AI Innovation that Protects Americans’ Rights and Safety” disponibile al link FACT SHEET: Biden-Harris Administration Announces New Actions to Promote Responsible AI Innovation that Protects Americans’ Rights and Safety | The White House