Reazioni avverse, errori di dosaggio e interazioni tra farmaci sono responsabili ogni anno di migliaia di ricoveri ospedalieri in tutto il mondo con un impatto sanitario ed economico significativo. L’intelligenza artificiale potrebbe aiutarci a mitigare questi eventi?
Negli ultimi anni sono stati sviluppati strumenti di intelligenza artificiale sempre più sofisticati, come i modelli linguistici di grandi dimensioni, o Large Language Model (LLM), in grado di comprendere il linguaggio naturale e rispondere a quesiti complessi, anche in ambito medico e farmaceutico. Tra questi, uno degli esempi più noti è ChatGPT.
Un recente studio ha cercato di capire se questi sistemi siano davvero pronti a rendere la gestione dei farmaci più sicura.
Uno studio per valutare l’intelligenza artificiale
Per vagliare questa ipotesi, un gruppo di ricerca ha passato in rassegna 30 lavori scientifici pubblicati tra il 2012 e il 2024, riguardanti l’applicazione dell’intelligenza artificiale in ambito sanitario, con particolare attenzione a tre aree:
- la previsione delle interazioni tra farmaci
- il supporto decisionale per i medici nella gestione delle terapie
- l’automazione della farmacovigilanza, ovvero il monitoraggio degli effetti collaterali dei farmaci nel tempo.
L’intelligenza artificiale è promettente, ma serve cautela
I risultati sono incoraggianti, ma ancora lontani da un’applicazione clinica diffusa. In alcuni ambiti, come la previsione delle interazioni tra farmaci, l’intelligenza artificiale ha raggiunto livelli di accuratezza superiori al 95%.
Nell’ambito della farmacovigilanza, l’uso di LLM ha dimostrato buone capacità nel riconoscere e classificare eventi avversi a partire dai dati clinici. Tuttavia, sono necessari ulteriori sviluppi per migliorarne la precisione.
Le prestazioni sono più variabili nel supporto decisionale: l’utilizzo di LLM come ChatGPT, può generare risposte utili e coerenti con il contesto, ma anche incomplete, imprecise o fuorvianti. In generale, tra i principali limiti riscontrati figurano la sensibilità e specificità non ottimali dell’intelligenza artificiale, la mancanza di accesso a dati clinici aggiornati in tempo reale e il fenomeno delle allucinazioni, ovvero la generazione di informazioni non corrette o totalmente inventate.