Intelligenza artificiale in medicina, opportunità e rischi: le raccomandazioni

Search by...
Search
Questo articolo è stato pubblicato il 7 Agosto 2020 su AgendaDigitale.eu, all’interno della nostra rubrica Legal Health.

L’utilizzo dell’Intelligenza artificiale nella società è un tema delicato, affrontato da tempo a livello europeo e nazionale. L’analisi di possibili rischi e benefici connessi all’uso di sistemi di IA è funzionale all’individuazione di interventi normativi e strategie da adottare al fine di garantire che il progresso tecnologico avvenga in un contesto di sicurezza e di tutela dei diritti.

Di recente, il Comitato Nazionale per la Bioetica e il Comitato Nazionale per la Biosicurezza, le Biotecnologie e le Scienze della Vita (rispettivamente CNB e CNBBSV, congiuntamente i “Comitati”), su richiesta del Presidente del Consiglio, hanno approfondito la tematica dell’IA applicata all’ambito medico.

Nel Parere “Intelligenza artificiale e medicina: aspetti etici” di maggio 2020 (il “Parere”)[1], i Comitati hanno evidenziato le opportunità e i rischi legati all’utilizzo dell’IA in ambito medico, accompagnando tale analisi con riflessioni di natura etica. Nel Parere, si parla di un “umanesimo digitale” e della necessità di affrontare tali tematiche con l’obiettivo di ottenere “una medicina con le macchine e non delle macchine” e per un miglioramento delle prestazioni del Servizio Sanitario Nazionale.

Per altro, sulla necessità di adottare un approccio all’IA che garantisca sicurezza e tutela dei diritti è intervenuta già la Commissione Europea con la pubblicazione del “Libro Bianco sull’intelligenza artificiale” del 19 febbraio 2020[2] e il Gruppo di Esperti MISE sull’intelligenza artificiale, con le “Proposte per una strategia italiana per l’intelligenza artificiale”, piano strategico pubblicato il 2 luglio 2020[3].

Esamineremo di seguito l’accurato Parere dei Comitati, anche alla luce dei recenti sviluppi registrati nel contesto normativo comunitario e nazionale.

Potenzialità e rischi dell’IA in ambito medico: riflessioni tratte dal Parere

Sono molteplici i vantaggi che derivano dall’utilizzo dell’IA in medicina. Si pensi all’assistenza cognitiva automatizzata che l’IA è in grado di fornire al medico nell’attività diagnostica e terapeutica. Ad esempio, l’IA può supportare il professionista sanitario nel classificare le condizioni del paziente e individuare eventuali situazioni critiche per il soggetto (come il sistema Dermosafe).

Inoltre, i Comitati evidenziano come l’utilizzo di strumenti di IA consentano di ridurre il tempo necessario per lo svolgimento di attività burocratiche e di routine. Ciò permette ai medici di investire più tempo nella relazione di cura con il paziente, rafforzando il rapporto e il dialogo medico-paziente.

Al tempo stesso, il Parere si sofferma su alcune criticità connesse agli strumenti di IA. In particolare, si sottolinea come l’assistenza cognitiva automatizzata rischi di diminuire l’attenzione umana con possibili riduzioni delle abilità del medico. Infatti, una possibile conseguenza potrebbe consistere nella delega alla tecnologia delle decisioni, con conseguente riduzione delle qualità umane e professionali del medico.

I principali profili critici sollevati nel Parere consistono:

  • nell’affidabilità degli strumenti di IA;
  • nell’enorme uso e possibile condivisione di dati;
  • nell’opacità dell’algoritmo alla base del funzionamento dell’IA (nel senso che i passaggi attraverso i quali l’algoritmo interpreta e analizza i dati non sono sempre trasparenti e potrebbero portare anche a risultati discriminatori); e
  • nella responsabilità in caso di danno causato dall’utilizzo dell’IA.

Le raccomandazioni presentate dai Comitati

I Comitati hanno presentato, tramite il Parere, alcune raccomandazioni volte ad attenuare i rischi connessi all’IA. In particolare, per ovviare all’opacità degli algoritmi e assicurare l’affidabilità degli strumenti di IA, i Comitati hanno suggerito controlli più numerosi e accurati, anche attraverso la validazione degli algoritmi e la certificazione delle nuove tecnologie. I Comitati hanno inoltre consigliato di rafforzare la sorveglianza e il monitoraggio e di confrontare, mediante studi clinici controllati, i risultati di sistemi di IA con le decisioni prese da gruppi di medici senza l’ausilio di strumenti di IA.

Sempre nell’ottica dell’affidabilità e della sicurezza degli strumenti di IA, nel documento “Proposte per una strategia italiana per l’intelligenza artificiale”, il MISE ha suggerito di elaborare, con riferimento ai sistemi di IA e il loro utilizzo, uno strumento ispirato alla Valutazione di impatto sulla protezione dei dati (data protection impact assessment – DPIA), prevista dall’art. 35 del Reg. (UE) 2016/679 (GDPR). Tale strumento obbligherebbe ogni soggetto coinvolto nella filiera di progettazione, produzione e utilizzo dello strumento di IA a una maggiore responsabilizzazione. Nello specifico, il gruppo di lavoro del MISE ha proposto l’utilizzo della griglia di autovalutazione Trustworthy AI Impact Assessment (TAIA), presentata a livello europeo e in via di definizione. Si tratta di uno strumento di risk assessment con cui gli attori coinvolti nel processo di elaborazione e utilizzo degli strumenti di IA devono individuare possibili rischi e tentare di mitigarne l’impatto.

Per quanto riguarda la relazione medico-paziente e il rilascio di un consenso che sia il più consapevole possibile, i Comitati consigliano ai medici di informare i pazienti, in modo corretto e con un linguaggio semplificato e comprensibile, sui rischi e i benefici dell’applicazione delle nuove tecnologie di IA, laddove necessarie.

Inoltre, il Parere (così come le “Proposte per una strategia italiana per l’intelligenza artificiale”) propone di ripensare alla formazione dei professionisti sanitari con un approccio più interdisciplinare, così da garantire agli operatori del settore maggiori competenze in materia di IA. Al tempo stesso, i Comitati suggeriscono di introdurre anche nozioni di etica nel percorso di formazione degli ingegneri e progettisti dei sistemi di IA.

IA e responsabilità civile

Un profilo molto complesso riguarda la responsabilità in caso di danni causati dall’uso dell’IA. Una delle questioni più complesse concerne l’individuazione del soggetto responsabile in caso di danneggiamento al paziente in seguito all’utilizzo di strumenti di IA. In particolare, a quale dei numerosi soggetti coinvolti nella filiera dovrebbe essere imputata la responsabilità (e.g. progettista, venditore del software, medico-utilizzatore) nell’ipotesi, ad esempio, di decisioni prese attraverso un sistema di IA e in caso di macchine di IA mal programmate e mal impiegate?

Secondo i Comitati, il paziente dovrebbe avere la possibilità di far valere la responsabilità contrattuale nei confronti del medico e della struttura aziendale ed anche di azionare una sorta di “responsabilità da contatto sociale” (categoria elaborata dalla giurisprudenza) nei confronti degli altri professionisti coinvolti e che avrebbero dovuto agire secondo la diligenza richiesta dalla propria professione.

Anche nelle “Proposte per una strategia italiana per l’intelligenza artificiale”, il gruppo di lavoro del MISE approfondisce questa tematica. Secondo tali esperti, al momento è possibile affidarsi all’applicazione di principi generali in materia di responsabilità (anche extracontrattuale) già presenti nel nostro ordinamento. In particolare, tale documento ipotizza la possibile applicazione dell’art. 2050 del Codice civile, inerente all’esercizio di attività pericolose, nel caso di uso di robot e di sistemi di IA utilizzati in attività che coinvolgono esseri umani.

A livello UE, la Commissione europea nel documento “Liability for emerging digital technologies” dell’Aprile 2018 ha anche teorizzato la possibilità di costituire una sorta di fondo pubblico per il risarcimento dei danni cagionati dall’utilizzo di sistemi di IA (uno strumento simile al Fondo di garanzia per le vittime della strada). Tuttavia, non ha specificato come in ipotesi tale fondo possa funzionare e, soprattutto, da chi debba essere costituito e mantenuto.

Alla luce di tali difficoltà applicative e all’assenza, anche livello europeo[4], di specifiche norme in tema di responsabilità da danni causati da sistemi di IA., i Comitati nel Parere e il gruppo di lavoro del MISE nella “Proposte per una strategia italiana per l’intelligenza artificiale” invocano un aggiornamento normativo della disciplina della responsabilità civile nell’ambito dell’applicazione delle nuove tecnologie di IA.

Considerazioni finali

Il Parere evidenzia l’importanza di una ricerca sull’IA nell’ambito pubblico del Servizio Sanitario Nazionale e incoraggia anche la formazione di una coscienza pubblica sulle potenzialità e sui rischi legati alle nuove tecnologie, così da sensibilizzare ulteriormente i cittadini e renderli maggiormente partecipi nel dibattito pubblico.

Di recente, sono state molteplici le pubblicazioni di documenti sulle strategie da adottare in materia di intelligenza artificiale, sia a livello nazionale che comunitario. È pertanto auspicabile che il Legislatore accolga l’appello dei Comitati e aggiorni la normativa esistente (soprattutto in materia di responsabilità) prendendo in considerazione le specifiche criticità e le potenzialità dell’IA, senza ostacolare l’implementazione di tali strumenti all’interno di diversi settori della società (come quello medico) ma al contempo garantendo livelli adeguati di tutela dei diritti (come il diritto fondamentale alla salute e il diritto alla riservatezza sui dati[5]).

**

Il testo integrale del Parere

Il Libro Bianco

Il PDF del documento “Proposte per una strategia italiana per l’intelligenza artificiale”

A livello europeo, non sono presenti specifiche norme in tema di responsabilità civile da danni prodotti da strumenti di IA. Tuttavia, si segnala in questa sede la “Relazione sulle implicazioni dell’intelligenza artificiale, dell’Internet delle cose e della robotica in materia di sicurezza e di responsabilità” della Commissione Europea e risalente allo scorso 19 febbraio 2020, che fornisce riflessioni interessanti sul tema. La relazione

Sul tema v. EDPS “Opinion on the European Commission’s White Paper on Artificial Intelligence – A European approach to excellence and trust” (Opinion 4/2020)

Back
Follow us on