Skip to main content

La responsabilità civile dei robot

Ci si interroga sempre più sulla responsabilità civile dei robot: molti esperti escludono l’attribuzione di personalità giuridica alla AI, con una relativa sopravvalutazione della capacità della stessa.

Il tema dell’intelligenza artificiale, fin dagli esordi, è sempre stato oggetto di discussione nel mondo del diritto, diviso tra chi richiede l’intervento del legislatore e chi sostiene si debba procedere a un riadattamento delle norme attuali, considerate sufficienti a risolvere le questioni sollevate dall’uso delle IA.

Attribuzione di responsabilità e personalità elettronica



Vista la diffusione e la sempre maggiore specializzazione delle IA è doveroso fare alcune valutazioni.

Ci si interroga sulla possibilità che i robot possano essere considerati soggetti di diritto e sulla necessità di istituire un tertium genus (quello della personalità elettronica), da sviluppare sul modello della persona fisica, avente diritti e doveri o della personalità non giuridica, avente solo doveri.

L’attribuzione della personalità giuridica alle IA, peraltro – come vedremo – presa in considerazione dall’UE, è stata in prima battuta esclusa da centinaia di esperti, che sottolineavano la sopravvalutazione delle capacità dei robot, anche di quelli più autonomi, con relativa sottovalutazione dell’imprevedibilità e capacità di apprendimento.

Lo status giuridico delle IA, poi, non sarebbe sovrapponibile a quello della persona fisica: un robot non può essere titolare di diritti umani.

È chiaro che a livello legislativo manchi uniformità di pensiero: da un lato i robot non possono essere assurti a persona giuridica, in quanto ciò presupporrebbe l’esistenza di soggetti idonei a rappresentarla e a dirigerla, e dall’altro anche il paragone con le persone fisiche appare improbabile, implicando conseguenze di tipo etico che sembrano inaccettabili.
Inoltre, le IA imitano il pensiero umano, ma non producono un’azione originale e indipendente tale da poter avere personalità giuridica.

Parlamento Europeo: la responsabilità giuridica dei robot

L’intelligenza artificiale rientra a pieno titolo nell’agenda del Parlamento Europeo, essendo quest’ultimo consapevole dei numerosi vantaggi e svantaggi conseguenti all’uso dell’IA e dei limiti della legislazione tradizionale, che non consente in maniera coerente di identificare quale sia il soggetto che ha arrecato il danno e dal quale esigere quindi un risarcimento.

Il 16 febbraio 2017 il PE ha approvato una risoluzione recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica; la stessa Commissione è stata invitata a presentare in un arco di tempo piuttosto ampio una proposta di atto legislativo, corredata da linee guida e codici di condotta.
La Commissione, secondo quanto indicato dal PE, dovrà stabilire se la responsabilità è di tipo oggettivo o si basa sul modello della gestione dei rischi, tenendo presente che la responsabilità per danno subito a causa dell’uso di un’IA è commisurata al tipo di istruzioni impartite e al grado di autonomia della macchina.

Altresì, una possibile risposta al problema della complessità dell’attribuzione potrà essere trovata nell’istituzione di regimi assicurativi obbligatori.
È proprio nel documento sopracitato che il PE auspica l’introduzione della personalità elettronica per meglio definire i robot più autonomi e sofisticati.

Il 20 ottobre 2020 segue l’approvazione di tre risoluzioni e due proposte di regolamento su etica, responsabilità e proprietà intellettuale dell’IA.
Una quarta risoluzione è approvata nel 2021, con la richiesta alla Commissione di vietare l’uso dei cosiddetti robot assassini (lethal autonoums weapon system), privi del controllo umano.

Secondo il documento “L’intelligenza artificiale per l’Europa” le IA sono: “sistemi che mostrano un comportamento intelligente analizzando il proprio ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere specifici obiettivi” (rientrano in tale definizione sia software attivi nel mondo virtuale sia veri e propri hardware incorporanti l’IA).
Vediamo insieme alcuni punti focali della Risoluzione del 20 ottobre 2020.

Responsabilità civile delle IA tra tradizione e innovazione normativa

Nella Risoluzione del 20 ottobre 2020 il PE riconosce la pervasività della IA in tutti i settori della vita sociale ed economica, nonché la sua utilità al raggiungimento degli obiettivi globali.

Il PE riconosce quindi i vantaggi dell’applicazione della IA, ma allo stesso tempo è conscio dei pericoli derivanti dalla sua gestione incontrollata, come la compromissione della dignità e libertà umana o il tracciamento degli spostamenti senza l’assenso della persona fisica.
Dato il duplice ruolo dell’IA, il quadro in materia di responsabilità civile deve “infondere fiducia nella sicurezza, nell’affidabilità e nella coerenza di prodotti e servizi, compresa la tecnologia digitale” nel rispetto di tutte le parti coinvolte. (punto B Risoluzione)

Il PE conferma il suo approccio antropocentrico, poiché l’uso della tecnologia non è fine a sé stesso, ma comunque posto al servizio del cittadino.

Inoltre, è esclusa la possibilità di considerare i robot come personalità giuridiche.
È indicato che il Regolamento sia applicabile in tutti gli stati della UE, qualora un’attività, dispositivo o processo virtuale o fisico guidato da un sistema artificiale arrechi un danno o pregiudizio alla vita, alla salute, all’integrità di una persona fisica o al patrimonio di una persona fisica o giuridica o un danno patrimoniale ampiamente verificabile.
La tutela (art.2) si aggiunge alle condizioni contrattuali o ad altre norme in materia di responsabilità per danno causato da prodotti difettosi, protezione del consumatore, antidiscriminazione o lavoro e tutela ambientale.

L’intento è quello di adeguare una normativa già efficace di per sé al mondo digitale emergente (data la complessità, la connettività, l’opacità, la vulnerabilità, la capacità di modifica mediante aggiornamenti, l’autoapprendimento e la potenziale autonomia dei sistemi di IA, come pure la molteplicità degli attori coinvolti). Vediamo quest’ultimo punto nel dettaglio.

Responsabilità civile per prodotto difettoso e regole specifiche per l’IA

In primis per il Parlamento Europeo la responsabilità delle IA non può essere assoggettata in toto alla normativa europea in fatto di prodotti difettosi, proprio a causa delle caratteristiche delle IA, per cui sarebbe quasi impossibile ricondurre il danno o il pregiudizio a un input o decisioni adottate nella fase di progettazione.
Nonostante la dovuta precisazione, il PE matura la convinzione che non sia necessario revisionare completamente i regimi di responsabilità in vigore, ma che occorrano adeguamenti specifici per risarcire chi ha subito un danno o pregiudizio dalle IA.

La risoluzione del problema sta nell’applicazione congiunta dei regimi di responsabilità in materia di prodotti difettosi e nuove regole specifiche, che tengano in considerazione tutti i soggetti coinvolti nell’uso delle Intelligenze artificiali.

Chi sono i soggetti responsabili?

Abbiamo parlato di responsabilità, ma chi sono i soggetti coinvolti?
Secondo quanto stabilito, la responsabilità per il danno può ricadere sul creatore del sistema di IA e su chi ne esegue la manutenzione e il controllo relativo al rischio prodotto dall’operatività e dal funzionamento del sistema, con la conseguente esposizione di terzi a potenziali rischi.

Seguendo la Risoluzione, rientrano tra i soggetti coinvolti gli operatori di front-end, coloro, cioè, che esercitano un certo grado di controllo sulla funzionalità del sistema di IA e ne traggono beneficio.
Semplificando, sono operatori front-end il conducente del veicolo semiautonomo o il medico che utilizza le IA per svolgere la propria attività.

E ancora gli operatori di back-end, persone fisiche o giuridiche che si occupano di definire le caratteristiche della tecnologia con continuità, esercitando un certo controllo sui dati e sul servizio di supporto e di conseguenza sui potenziali danni.

Il Regolamento stabilisce che qualora ci siano entrambe le figure di operatore, la responsabilità è da addebitare a entrambi in solido, pur essendo proporzionata al grado di controllo sull’operatività e funzionalità della IA.
In questa sede il PE non si occupa di haker, poiché costituisce un’azione basata sulla colpa, per la quale la responsabilità civile dei diversi Stati membri offre già adeguata protezione.

Infine, per quanto concerne l’utente, la persona coinvolta dal danno, è responsabile solo per colpa, la quale andrà valutata in base al suo contributo.


Intelligenza artificiale: alto e basso rischio

Le IA sono caratterizzate da un’estrema variabilità e la maggior parte di esse comporta rischi minimi per la società.
Per non ricondurre tutte le IA al regime di responsabilità, il PE ricorre al criterio del rischio, il più adeguato alle IA capaci di prendere decisioni in piena autonomia.
Il PE parla di IA ad alto rischio quando il funzionamento autonomo ha un potenziale elevato di provocare danni a una o più persone, in maniera casuale e al di là di ogni aspettativa.
La Risoluzione indica, peraltro, che bisogna tenere in considerazione il settore e la natura dell’attività e l’interazione tra la gravità del danno, la probabilità che il rischio causi un danno o un pregiudizio e la modalità di utilizzo del sistema di IA.
La responsabilità per le IA ad alto rischio è oggettiva, tant’è che è previsto un elenco da aggiornare ogni 6 mesi allegato alla Risoluzione.  
Le cosiddette IA a basso rischio, invece, sono interessate da una responsabilità di tipo colposo.
Le attività, i dispositivi e i processi non inseriti nell’elenco sono soggetti a una colpa presuntiva, per cui la persona coinvolta potrebbe avvalersi della presunzione della colpa e potersi discolpare dimostrando di aver agito con diligenza.

Nel caso in cui un sistema di IA abbia arrecato un danno o un pregiudizio, ma non sia stato ancora valutato dalla Commissione o dal Comitato permanente e per questo non ancora inserito nell’elenco, questi è soggetto alla responsabilità oggettiva se ha causato incidenti ripetuti e prodotto danni o pregiudizi.
In tal caso spetta alla Commissione valutare la revisione dell’allegato e la retroattività dell’inclusione del sistema nell’elenco.
L’operatore può esimersi solo dimostrando la forza maggiore.

I sistemi non ad alto rischio, con un grado di automazione piuttosto limitato, rimangono soggetti a un regime di responsabilità per colpa.
L’operatore è chiamato a dimostrare di non aver ignorato gli avvertimenti e le istruzioni del produttore e di non aver modificato le condizioni di rischio del dispositivo attraverso aggiornamenti, update e nuovi servizi.
La diligenza dell’operatore deve essere commisurata alla natura del sistema, al tipo di danno o pregiudizio e alla probabilità che si verifichi, e infine, al diritto interessato.
Inoltre, sempre in merito alla diligenza, l’art. 8 della proposta prevede che  l’operatore non sia responsabile se riesce a dimostrare che il sistema si è attivato senza la sua volontà e comunque nel rispetto di tutte le misure previste.

Responsabilità civile dei robot: cosa dice il Codice?


In attesa dell’approvazione del Regolamento, alcune norme del nostro codice civile possono astrattamente essere usate per regolamentare l’uso delle IA.

Occorre, quindi, analizzare le fattispecie collegabili alla responsabilità civile per danno da IA.
La dottrina maggioritaria indica che tale responsabilità potrebbe essere ricondotta alla responsabilità oggettiva in contrapposizione a quella per colpa.

Il primo raffronto utile è tra gli art. 2050 c.c, sulla responsabilità per l’esercizio di attività pericolose, e l’art.2051 c.c, sulla responsabilità del danno cagionato da cose in custodia: in entrambi i casi bisogna dimostrare di aver adottato tutte le misure idonee a evitare il danno.
Rientrerebbe nella disciplina dell’art.2050 c.c. l’attività di un robot guidato da un operatore: in tal caso, però, bisogna considerare che l’IA spesso si va a sostituire alla mano dell’uomo considerata fallace, quindi parlarne in termini di pericolosità appare contradditorio, laddove il suo utilizzo è finalizzato proprio a evitare il verificarsi di inconvenienti.

L’art. 2051 del codice civile fa riferimento a un danno causato da una cosa inanimata, ma in tal caso bisognerebbe dimostrare che le IA siano, ovviamente, cose.
Su questo punto non vi è uniformità di vedute, perché in primo luogo le IA non sono considerate all’unanimità “cose” e se le identifichiamo con l’agente la disciplina della custodia appare abbastanza lacunosa.
La responsabilità così descritta nell’art.2051 è in linea con quanto stabilito dall’art.2052 c.c., relativo ai danni provocati da animali e di cui il proprietario è responsabile.
Ma l’IA può essere considerata al pari di un animale o il carattere imprevedibile e irrazionale di questi ultimi ne fa due entità giuridiche diverse?

Il ricorso a istituti giuridici preesistenti ci porta a considerare un approccio della responsabilità basata sulla gestione dei rischi, ai sensi della Direttiva 85/374/CEE.

 La disciplina della Direttiva 85/374/CEE (in Italia D.P.R. n. 224/1988, poi Codice del Consumo) regola le ipotesi di responsabilità per product liability ed è apparsa utile a disciplinare anche i danni causati da IA, seppur con dubbi legati all’imprevedibilità di quest’ultima.

Per addebitare la responsabilità oggettiva al produttore del prodotto, la Direttiva ci dice che chi lamenta un danno deve dimostrare la difettosità del prodotto, il pregiudizio patito e il nesso di causalità tra quest’ultimo e il difetto.
Inoltre, il consumatore può anche rivolgersi, in caso di danno, al programmatore dell’algoritmo, dalla cui programmazione deriva il comportamento anche dannoso della IA.
Per approfondire1

Data la difficoltà per il soggetto leso di ricevere un risarcimento adeguato, il Regolamento europeo prevede l’istituzione di un’assicurazione per responsabilità civile obbligatoria per chi ha prodotto il bene.

Obiezioni:

  • difficoltà a stabilire ex ante i rischi per determinare l’entità dei premi;
  • inibire lo sviluppo di nuovi prodotti intelligenti;
  • le società assicurative difficilmente sarebbero disposte a stipulare polizze su rischi ignoti.

A livello europeo si ipotizza una copertura per i soli danni maggiori o la costituzione di un fondo di garanzia che coinvolga tutti gli agenti, dal produttore all’utente. Qualora sia difficile identificare una delle parti, lo Stato è chiamato a partecipare al risarcimento.

Nodo centrale di tutta la discussione europea e nazionale appare la difficoltà di rintracciare chi ha avuto il controllo del sistema, o comunque gli input, i codici causanti il danno.

Essendo il sistema di IA spesso autonomo e opaco, potrebbe essere difficile collegare determinate azioni cagionevoli di danno o pregiudizi in genere a persone, proprio perché chi ha subito il danno non può accertare la responsabilità del produttore del sistema, dell’operatore o di una terza parte.

In conclusione, è chiaro che il diritto riconosca l’urgenza di occuparsi dei danni causati dalle IA, dato il reale e concreto collegamento tra intelligenza artificiale e responsabilità civile.


Ritieni di aver subito un danno a causa di un sistema di Intelligenza Artificiale?
Lo Studio Legale Imbergamo, grazie a una consolidata esperienza e continui aggiornamenti sulla normativa vigente, presta consulenza in tema di diritto civile applicato alle nuove tecnologie, comprese le Intelligenze Artificiali.

La responsabilità civile dei robot

Contatta lo Studio

=
Note
  1. Ruffolo, Le responsabilità da Artificial Intelligence,algoritmo e smart product: per i fondamenti di un diritto dell’Intelligenza Artificiale self-learning, in . Il diritto, i diritti, l’etica, Giuffrè, 2020