Un quadro di riferimento condiviso per governare l’uso dell’intelligenza artificiale lungo l’intero ciclo di vita del farmaco: è questo l’obiettivo dell’intesa annunciata nei giorni scorsi dall’Ema e dalla Food and Drug Administration americana, che hanno definito dieci principi guida per una “buona pratica” dell’AI nello sviluppo dei medicinali. Le linee guida, illustrate in un documento congiunto pubblicato a gennaio, sono destinate a orientare sia le aziende farmaceutiche sia i titolari di autorizzazione all’immissione in commercio, e costituiranno la base dei futuri atti regolatori nelle diverse giurisdizioni.
Secondo le due Agenzie, l’impiego dell’intelligenza artificiale nella ricerca e nello sviluppo dei farmaci è cresciuto in modo significativo negli ultimi anni, trovando applicazione dalla fase preclinica agli studi clinici, fino alla produzione e alla farmacovigilanza post-marketing. L’AI viene vista come uno strumento in grado di «accelerare il percorso dall’innovazione a medicinali sicuri ed efficaci», in linea con quanto previsto anche dalla proposta europea di Biotech Act e dal nuovo quadro legislativo farmaceutico dell’Unione, che apre a un utilizzo più ampio di tecnologie digitali nei processi decisionali regolatori. Al tempo stesso, però, Ema e Fda sottolineano che questi benefici possono essere realizzati solo se l’AI è gestita in modo rigoroso, con un’attenzione costante alla mitigazione dei rischi per la sicurezza dei pazienti e per l’affidabilità delle evidenze generate.
Il documento individua dunque dieci principi di carattere generale, pensati per accompagnare l’evoluzione tecnologica con un approccio basato su valori, responsabilità e proporzionalità. Il primo è quello di un’AI “human-centric by design”: lo sviluppo e l’uso delle tecnologie devono essere allineati a valori etici e mantenere l’uomo al centro, evitando automatismi che possano compromettere la tutela dei pazienti. A questo si affianca un approccio basato sul rischio, che prevede livelli di validazione, controllo e mitigazione proporzionati al contesto di utilizzo e al potenziale impatto del modello di AI impiegato.
Un altro pilastro riguarda l’adesione agli standard: le soluzioni di intelligenza artificiale devono rispettare i requisiti legali, etici, scientifici e regolatori esistenti, comprese le Good Practices (GxP) che da sempre governano lo sviluppo e la produzione dei medicinali. Centrale è anche la definizione chiara del contesto d’uso: ogni applicazione di AI deve avere un ruolo e uno scopo ben delimitati, esplicitando perché e come viene utilizzata nel processo di generazione delle evidenze.
Le Agenzie insistono poi sulla necessità di competenze multidisciplinari. Lo sviluppo e l’impiego dell’AI non possono essere demandati ai soli data scientist, ma richiedono l’integrazione continua di competenze cliniche, regolatorie, statistiche e informatiche lungo tutto il ciclo di vita della tecnologia. In stretta connessione con questo aspetto vi è il tema della governance dei dati e della documentazione: la provenienza delle fonti, i passaggi di elaborazione e le scelte analitiche devono essere «documentati in modo dettagliato, tracciabile e verificabile», garantendo al contempo la protezione dei dati sensibili e il rispetto delle norme sulla privacy.
Ampio spazio è dedicato anche alle pratiche di progettazione e sviluppo dei modelli. L’AI, spiegano Ema e Fda, deve basarsi su dati “fit for use” e seguire le migliori pratiche di ingegneria del software e dei sistemi, tenendo conto di aspetti come interpretabilità ed esplicabilità dei risultati. Da qui discende l’esigenza di valutazioni delle prestazioni basate sul rischio, che considerino l’intero sistema, incluse le interazioni tra uomo e macchina, e che utilizzino metriche adeguate allo specifico contesto applicativo.
Un ulteriore principio riguarda la gestione lungo il ciclo di vita: le tecnologie di AI non sono strumenti statici, ma sistemi che devono essere monitorati e rivalutati periodicamente per intercettare fenomeni come il data drift o il decadimento delle prestazioni. A supporto di questo processo sono richiesti sistemi di qualità anch’essi basati sul rischio, in grado di individuare e correggere tempestivamente eventuali criticità.
Infine, le Agenzie richiamano l’importanza di una comunicazione chiara ed essenziale. Le informazioni sull’uso dell’AI, sulle sue prestazioni e sui suoi limiti devono essere presentate in un linguaggio comprensibile e contestualizzato, rivolto non solo agli sviluppatori e agli utilizzatori professionali, ma anche ai pazienti, quando rilevante. Trasparenza e comprensibilità sono considerate elementi chiave per mantenere la fiducia nel sistema regolatorio e nei processi di innovazione.
Per i farmacisti, questo accordo rappresenta un segnale importante. Pur collocandosi a monte della dispensazione, le regole sull’AI nello sviluppo dei medicinali incidono direttamente sulla qualità delle evidenze che sostengono l’autorizzazione, sull’affidabilità dei dati di sicurezza e, in prospettiva, anche sugli strumenti digitali che potranno affiancare la pratica professionale. L’iniziativa congiunta Ema-Fda, che si inserisce in un percorso di cooperazione avviato nel 2024 e destinato a proseguire, punta proprio a garantire che l’innovazione guidata dall’intelligenza artificiale proceda in modo coordinato e responsabile, senza derogare ai principi di qualità, efficacia e sicurezza che sono alla base del farmaco.