AI nel farmaceutico: accelerazione sì, ma con il giudizio umano al centro
FARMA GEN Z
AI nel farmaceutico: accelerazione sì, ma con il giudizio umano al centro
L’uso dell’intelligenza artificiale nella ricerca e nello sviluppo dei farmaci apre a scenari promettenti, ma anche a rischi di esclusione, interpretazioni errate e decisioni opache. La sfida non è tecnologica: è culturale. Ed è il nostro sguardo a dover restare guida critica
Farma GenZ è una rubrica mensile, nata in collaborazione con Aisfa Italia e con il supporto non condizionante di Teva, in cui si raccontano iniziative, corsi, specializzazioni e opportunità professionali per i futuri farmacisti. Tutte le puntate qui
11 dicembre 2025
Valeria De Rose,
presidente Aisfa Cosenza
Nicola Polistina,
vicepresidente Formazione Aisfa Cosenza
Parlare oggi di intelligenza artificiale nel settore farmaceutico significa muoversi in un territorio che oscilla tra curiosità e diffidenza. C’è chi la considera una rivoluzione inevitabile, destinata a trasformare la ricerca scientifica e chi, invece, teme che l’entusiasmo possa superare quella capacità di valutare rischi e limiti con la necessaria prudenza. In entrambi i casi, emerge che ignorarla non è più un’opzione.
Se consideriamo l’ambito della drug discovery, l’intelligenza artificiale ha già iniziato a sfidare i metodi tradizionali. Esistono algoritmi in grado di analizzare milioni di combinazioni chimiche, individuando in poche ore molecole che, con approcci convenzionali, avrebbero richiesto anni di lavoro. Certo, è difficile non esserne colpiti. Eppure, davanti a una performance così perfetta, resta una domanda scomoda: la complessità della biologia può davvero essere racchiusa in una logica matematico-statistica? La velocità è sicuramente un vantaggio straordinario, finché non rischia di superare la capacità umana di comprenderne i presupposti.
La sfida diventa ancora più evidente nella ricerca clinica. L’AI può prevedere chi risponderà meglio a un farmaco, selezionare i partecipanti agli studi e identificare segnali di tossicità prima che emergano. Se da un lato questo promette studi meglio strutturati e terapie più mirate, dall’altro solleva un interrogativo preoccupante: cosa può accadere quando è un algoritmo a decidere chi è idoneo e chi no? Il rischio che si corre è che se i dati non tengono conto – in adeguata combinazione – delle differenze biologiche, culturali e sociali degli individui, alcuni gruppi di partecipanti possono automaticamente essere lasciati fuori dagli studi e l’obiettivo della “selezione perfetta” potrebbe trasformarsi, senza volerlo, in esclusione.
Anche nel monitoraggio post-marketing l’intelligenza artificiale ha preso piede. È in grado di scansionare segnalazioni cliniche, database sanitari e letteratura scientifica, al fine di individuare schemi anomali che potrebbero sfuggire all’occhio umano. È uno strumento potente, soprattutto perché opera senza tregua, instancabilmente. Ma quando un sistema è in grado di vedere (o pensa di vedere) ciò che noi non vediamo, siamo pronti a fidarci? Se – poniamo il caso – un algoritmo rilevasse un rischio potenziale prima ancora che la comunità scientifica ne comprenda il senso, chi avrebbe l’ultima parola?
La vera partita, dunque, non riguarda la tecnologia in sé, ma la qualità delle decisioni che ne derivano. Perché l’AI, per quanto sofisticata, non interpreta il contesto, non percepisce sfumature, non si assume responsabilità. Offre correlazioni, non comprensione; suggerisce direzioni, ma non garantisce che siano sensate. Per questo la sua adozione nel farmaceutico non può essere vista come un semplice aggiornamento degli strumenti, bensì come un cambiamento culturale che richiede nuove competenze, nuovi criteri di giudizio e una vigilanza etica costante.
La collaborazione uomo-macchina diventa allora un esercizio di equilibrio: sfruttare la potenza analitica dell’AI senza delegarle ciò che definisce la professionalità umana, cioè la capacità di interpretare, valutare, assumersi la responsabilità dell’incertezza.
Se l’intelligenza artificiale accelera, l’intelligenza umana deve imparare a interrogare. Se la macchina vede schemi, l’uomo deve chiedersi cosa significhino. Se un algoritmo propone, un professionista deve verificare, contestualizzare, correggere. In questo dialogo si gioca il futuro della ricerca e della pratica farmaceutica: non un conflitto, ma una coevoluzione consapevole.
La trasformazione in atto, quindi, riguarda più propriamente la maturazione di un approccio critico che permetta di comprendere quando fidarsi delle analisi automatiche e quando, invece, è necessario fermarsi e rimettere la complessità al centro. In un contesto in cui la quantità di dati cresce più rapidamente della capacità di interpretarli, diventa essenziale preservare quello sguardo umano capace di dare significato, di valutare le conseguenze e di assumersi la responsabilità delle decisioni.
E alla fine, se tutto ciò che conta è la qualità del pensiero, vi sfidiamo a riconoscerne l’origine: avete appena letto un testo umano o un’elaborazione algoritmica? A voi la conclusione.
