L’intelligenza artificiale per migliorare la sicurezza dei farmaci?

11 Lug 2025

FOCUS: Cronicità e polifarmacoterapia

Reazioni avverse, errori di dosaggio e interazioni tra farmaci sono responsabili ogni anno di migliaia di ricoveri ospedalieri in tutto il mondo con un impatto sanitario ed economico significativo. L’intelligenza artificiale potrebbe aiutarci a mitigare questi eventi?
Negli ultimi anni sono stati sviluppati strumenti di intelligenza artificiale sempre più sofisticati, come i modelli linguistici di grandi dimensioni, o Large Language Model (LLM), in grado di comprendere il linguaggio naturale e rispondere a quesiti complessi, anche in ambito medico e farmaceutico. Tra questi, uno degli esempi più noti è ChatGPT.
Un recente studio ha cercato di capire se questi sistemi siano davvero pronti a rendere la gestione dei farmaci più sicura.

Uno studio per valutare l’intelligenza artificiale

Per vagliare questa ipotesi, un gruppo di ricerca ha passato in rassegna 30 lavori scientifici pubblicati tra il 2012 e il 2024, riguardanti l’applicazione dell’intelligenza artificiale in ambito sanitario, con particolare attenzione a tre aree:

  • la previsione delle interazioni tra farmaci
  • il supporto decisionale per i medici nella gestione delle terapie
  • l’automazione della farmacovigilanza, ovvero il monitoraggio degli effetti collaterali dei farmaci nel tempo.

L’intelligenza artificiale è promettente, ma serve cautela

I risultati sono incoraggianti, ma ancora lontani da un’applicazione clinica diffusa. In alcuni ambiti, come la previsione delle interazioni tra farmaci, l’intelligenza artificiale ha raggiunto livelli di accuratezza superiori al 95%.
Nell’ambito della farmacovigilanza, l’uso di LLM ha dimostrato buone capacità nel riconoscere e classificare eventi avversi a partire dai dati clinici. Tuttavia, sono necessari ulteriori sviluppi per migliorarne la precisione.
Le prestazioni sono più variabili nel supporto decisionale: l’utilizzo di LLM come ChatGPT, può generare risposte utili e coerenti con il contesto, ma anche incomplete, imprecise o fuorvianti. In generale, tra i principali limiti riscontrati figurano la sensibilità e specificità non ottimali dell’intelligenza artificiale, la mancanza di accesso a dati clinici aggiornati in tempo reale e il fenomeno delle allucinazioni, ovvero la generazione di informazioni non corrette o totalmente inventate.

In pratica

Lo studio conferma il potenziale dell’intelligenza artificiale, che nel prossimo futuro potrebbe diventare un valido alleato nella riduzione degli errori da farmaco, contribuendo a rendere la medicina più sicura e centrata sul paziente.
Tuttavia, come sottolineano gli stessi autori dello studio, l’intelligenza artificiale non deve mai sostituire il giudizio clinico, ma affiancarlo. I modelli generativi di linguaggio possono offrire un supporto utile nella gestione dei farmaci, ma solo se integrati in modo responsabile nei processi clinici, sotto la supervisione diretta dei professionisti sanitari.

Bibliografia

Ong J, Chen M, et al. A scoping review on generative AI and large language models in mitigating medication related harm. NPJ Digit Med 2025; https://www.nature.com/articles/s41746-025-01565-7 Conflitti di interesse:
Condividi: