AI e machine learning nel pharma: Ema pubblica una prima bozza di “reflection paper”

Cerca per...
Cerca
Questo articolo è stato pubblicato il 15 settembre 2023 su AboutPharma.com, all’interno della nostra rubrica “Digital impact in Life Sciences: Legal Corner”.

Lo scorso 19 luglio l’Agenzia europea per i medicinali (Ema) ha reso disponibile sul proprio sito una prima bozza del “Reflection paper on the use of AI in medicinal product lifecycle“ che contiene le più recenti considerazioni dell’autorità sull’applicazione dell’intelligenza artificiale e dei metodi di machine learning in ciascuna fase del ciclo di vita dei medicinali, dalla drug discovery sino agli studi clinici e alle attività post autorizzazione. Il documento rientra nelle iniziative della Heads of Medicines Agencies (Hma) e del gruppo direttivo sui Big Data dell’Ema (Bdsg) per aumentare la capacità della rete europea di regolamentazione dei medicinali di sfruttare queste tecnologie basate sull’analisi di grandi quantità di dati per regolare e indirizzare lo sviluppo di nuovi prodotti. La rete europea è composta, oltre che dalla stessa Ema, dalle autorità nazionali e dalla Commissione europea.
Il documento mira in particolare a stimolare riflessioni e dibattiti con gli stakeholders sui criteri per la valutazione normativa di queste nuove tecnologie, individuando, per ciascuna fase del ciclo di vita dei medicinali, le regole e le buone prassi ad oggi applicabili (a partire dalle GxP, che naturalmente si aggiungono alle norme sulla tutela dei dati personali), oltre a promuovere una futura e più specifica regolamentazione della materia. La consultazione pubblica sulla bozza di reflection paper è aperta fino al 31 dicembre 2023 e l’argomento sarà ulteriormente discusso durante un workshop congiunto di Hma ed Ema previsto per il 20-21 novembre.

AI e medicinali

L’intelligenza artificiale – sistema in grado di simulare le capacità e il comportamento umano per raggiungere obbiettivi specifici con un maggiore o minore grado di autonomia – è sempre più affiancata al machine learning (ML), algoritmi di apprendimento automatico in grado di apprendere, incrementare le proprie prestazioni e fornire output grazie all’analisi e alla categorizzazione di enormi quantità di dati, senza che in sede di programmazione siano fornite istruzioni esplicite. Queste tecnologie si stanno diffondendo rapidamente anche nel settore farmaceutico e già oggi il loro utilizzo può supportare efficacemente l’acquisizione, la trasformazione, l’analisi e l’interpretazione dei dati in tutto il ciclo di vita dei medicinali, come riconosciuto da Ema. Tuttavia, la natura stessa di queste tecnologie comporta anche nuovi rischi che devono essere correttamente gestiti. Si pensi ad esempio all’utilizzo di set di dati o di parametri di apprendimento inadeguati, che potrebbero alterare i modelli implementati nello sviluppo clinico del prodotto, o ancora all’utilizzo di sistemi non trasparenti, che non consentono di risalire al “perché” di una decisione presa dall’algoritmo e dunque di capire quali parametri l’hanno determinata.

Risk-based approach

Per tali ragioni, nelle fasi di sviluppo, implementazione e monitoraggio dei sistemi di AI e ML utilizzati nel ciclo di vita dei medicinali, Ema promuove, a livello generale, un approccio basato sul rischio, così che gli sviluppatori definiscano preventivamente e proattivamente i rischi che devono essere monitorati o mitigati. I diversi livelli di rischio possono dipendere dalla tecnologia, da suoi malfunzionamenti o da alterazioni dei modelli di AI dovute alla distorsione dei dati sottostanti, così come dal contesto in cui queste tecnologie sono utilizzate. In ogni caso, la responsabilità di pianificare e gestire i rischi, nonché di garantire l’utilizzo di modelli e set di dati adatti allo scopo e conformi a tutti gli standard applicabili dovrebbe ricadere in maniera diretta sui richiedenti o titolari dell’autorizzazione all’immissione in commercio dei medicinali coinvolti.
Quello alla base della proposta di Regolamento sull’intelligenza artificiale attualmente in discussione a livello europeo, il cosiddetto “AI Act”, è un approccio risk-based, che sarà auspicabilmente coadiuvato dalla definizione di più specifiche linee guida in materia di valutazione e gestione dei rischi. Il documento è destinato a trovare larga applicazione anche in campo farmaceutico e medicale, e dove i sistemi di AI sono classificati secondo quattro livelli di rischio, a partire da quelli a “rischio inaccettabile” e dunque vietati (sistemi di manipolazione comportamentale cognitiva dannosi, sistemi di classificazione sociale, etc.) e sino a quelli a rischio elevato, limitato o nullo, per i quali sono previsti diversi requisiti di qualità e trasparenza, anche per tramite di organismi certificatori terzi.

L’utilizzo di software/devices

I software o dispositivi con una specifica destinazione d’uso medica, per esempio per implementare sistemi di AI e ML nell’ambito della valutazione clinica di medicinali o nella loro somministrazione, potrebbero essere classificati come dispositivi medici o dispositivi medico-diagnostici in vitro[2] ai sensi, rispettivamente, dei Regolamenti europei 2017/745 e 2017/746 (sul tema della classificazione di un software come dispositivo medico si vedano, in particolare, le linee guida del Medical Device Coordination Group “MDCG 2019-11” dell’ottobre 2019).
Ferme restando le procedure autorizzatorie e certificative previste per questi dispositivi ai sensi della normativa di settore, oltre alle ulteriori regole e procedure di valutazione che potrebbero applicarsi in conseguenza dell’AI Act, le tecnologie di AI e ML dovranno essere oggetto di valutazione da parte dell’autorità e degli organismi coinvolti nell’ambito dello sviluppo clinico del farmaco, per verificarne l’affidabilità e la capacità di generare output ritenuti attendibili a supporto della  futura immissione sul mercato.

AI e product lifecycle

In base al Reflection paper, il livello di rischio connesso all’utilizzo di sistemi di AI e ML può essere diverso in base alla fase del ciclo di vita del medicinale. Ad esempio, i rischi derivanti dall’utilizzo dell’intelligenza artificiale sono ritenuti minori nelle attività di drug discovery, volte all’individuazione di elementi o meccanismi biologici (bersagli) capaci di interagire con un determinato stato patologico e sui quali il farmaco dovrà intervenire. Nella fase di sviluppo non clinico dei medicinali, l’utilizzo di AI e ML può consentire non solamente di generare dati più robusti e affidabili, ma anche di limitare o addirittura evitare l’utilizzo di animali da laboratorio. Attesa la rilevanza dei dati pre-clinici nella valutazione del rapporto rischi/benefici del farmaco, si raccomanda, nei limiti del possibile, l’applicazione delle Glp (Good Laboratory Practice) anche a queste tecnologie.
Per quanto riguarda invece gli studi clinici, i modelli di AI/ML dovranno in primo luogo seguire le indicazioni ricavabili dalle Gcp (Good Clinical Practice) ed essere oggetto specifico di valutazione nell’ambito dello studio, e dunque la loro architettura e funzionamento dovranno essere resi chiari dallo sponsor alle autorità e agli organismi coinvolti, oltre che agli stessi partecipanti alla sperimentazione. Le relative informazioni dovranno quindi essere incluse nel protocollo di studio.
AI e ML hanno notevoli potenzialità di impiego anche nelle successive fasi di produzione dei medicinali (qui Ema richiama in primis l’applicabilità delle Gmp – Good Manufacturing Practice) e in tutte le attività che fanno seguito all’autorizzazione all’immissione in commercio. In particolare, le attività di farmacovigilanza e di individuazione e gestione di eventi avversi potranno beneficiare di algoritmi sempre più sofisticati. Ad esempio, la flessibilità dei modelli di AI e ML e le capacità di apprendimento continuo potrebbero consentire di generare modelli sempre più sofisticati di identificazione e classificazione di eventi avversi. Rimane ferma in ogni caso la responsabilità del titolare dell’autorizzazione alla commercializzazione in punto di validazione e controllo dei modelli utilizzati, così come di adeguata documentazione delle loro performance.
In ogni caso, Ema raccomanda a tutti i soggetti coinvolti di interagire e chiedere consigli e chiarimenti alle autorità competenti, soprattutto quando manchino o siano carenti specifiche regole e linee guida per l’implementazione di sistemi di AI e ML nelle singole fasi di sviluppo del medicinale.

Ulteriori considerazioni

Ema raccomanda inoltre che nelle fasi di programmazione, sviluppo e implementazione dei sistemi di AI/ML:

  • Siano impiegati metodi di acquisizione dei dati trasparenti e tracciabili, evitando bias, e siano garantiti integrità dei dati e adeguati sistemi di data governance.
  • Siano sviluppati modelli quanto più possibile trasparenti – e dunque in grado di fornire spiegazioni in ordine a diversi output prodotti – nonché generalizzabili.
  • Siano rispettati i principi etici tracciati dalle Ethics guidelines for trustworthy AI presentate dall’High -Level Expert Group on AI (AI Hleg) alla Commissione europea.

Non a caso, si tratta sostanzialmente dei medesimi principi alla base dell’AI Act.

Prossimi passi

L’utilizzo dell’intelligenza artificiale e delle tecnologie associate è destinato ad avere un ruolo sempre maggiore nell’intero ciclo di vita dei medicinali, con benefici potenziali sia in termini di efficacia e sicurezza delle cure, sia in termini di risparmio di tempi e costi necessari allo sviluppo di nuovi prodotti. II documento di Ema evidenzia che alcune delle regole e delle buone pratiche già esistenti possono applicarsi anche a tali sistemi e orientare l’operato degli altri attori coinvolti, ma molti aspetti non sono regolati, per cui sarà certamente essenziale, almeno nelle prime fasi, il supporto delle autorità regolatorie.
Parallelamente, sono destinate a intensificarsi le iniziative di regolamentazione del settore, a cominciare dall’AI Act che, una volta approvato, avrà un impatto diretto sul settore medicale e, più indirettamente, anche su quello farmaceutico. Tuttavia, neppure l’AI Act sarà sufficiente a rispondere a molti quesiti legati all’impiego di queste tecnologie nella fase di sviluppo del farmaco (ad esempio come autorizzarne l’uso, come valutare l’affidabilità dei risultati a fini autorizzativi, etc.). Per questo bisognerà attendere.
Nel frattempo, attraverso il Reflection paper, Ema intende promuovere attivamente questo processo di approfondimento e regolamentazione, con l’obiettivo di giungere a un documento definitivo che possa fornire indicazioni, quantomeno di ordine generale, sulle cautele e le misure da adottare nelle diverse fasi del ciclo di sviluppo dei medicinali. Anche oltreoceano, negli Stati Uniti, la Food and Drug Administration ha di recente pubblicato un documento di discussione sull’utilizzo di AI e ML nello sviluppo e produzione di medicinali, coinvolgendo i vari stakeholder del settore, con il medesimo obbiettivo di stimolare il dialogo e la creazione di regole condivise per l’utilizzo di queste nuove tecnologie nel settore farmaceutico.

Indietro
Seguici su