L'intelligenza artificiale non riconosce il "no", e questo rappresenta un grosso problema per le applicazioni mediche

L'intelligenza artificiale ha difficoltà a riconoscere le negazioni, un problema serio per i robot medici. Una diagnosi mal interpretata può portare a gravi errori. Come possiamo risolvere questo problema?

intelligenza artificiale in medicina
Intelligenza artificiale in medicina: diagnostica assistita dall'intelligenza artificiale e il suo ruolo nel are i medici: un o decisivo per il futuro dell'assistenza sanitaria.

Negli ultimi anni, l’intelligenza artificiale (IA) ha compiuto progressi impressionanti nell’analisi dei dati di immagini e testo, in particolare attraverso i modelli di linguaggio visivo (VLM) che mettono in relazione immagini e testo.

Questi modelli hanno applicazioni promettenti nel campo medico, poiché aiutano ad analizzare immagini mediche, come radiografie o risonanze magnetiche, e le combinano con descrizioni testuali per assistere il personale medico nella formulazione delle diagnosi.

Tuttavia, una debolezza importante dei sistemi di IA attuali, spesso sottovalutata, è la loro incapacità di rilevare correttamente le negazioni.

L’importanza della negazione nella diagnosi medica

In medicina, la distinzione precisa tra la presenza e l’assenza di sintomi o segni di malattia è cruciale. La capacità di identificare correttamente “non” o “assenza di segni” è essenziale nell’analisi delle immagini mediche.

Un sistema di intelligenza artificiale che interpreta erroneamente un’immagine come “segni di malattia” quando in realtà non mostra “alcun segno di malattia” potrebbe causare diagnosi errate gravi.

Questi errori possono portare a trattamenti non necessari o, peggio ancora, alla mancata rilevazione di una condizione reale.

Tasso di errore nel rilevamento delle negazioni

I modelli attuali di visione-linguaggio che combinano immagini e testo hanno notevoli difficoltà nell’interpretare correttamente le negazioni.

In test in cui i modelli dovevano cercare immagini in base alla presenza o all’assenza di determinati oggetti, hanno mostrato un’elevata precisione nell’identificazione degli oggetti. Ma quando veniva chiesto di cercare immagini che non contenessero un determinato oggetto, la precisione diminuiva sensibilmente.

Ciò accade perché questi modelli tendono a concentrarsi sulla conferma e sull’affermazione positiva. Significa che tendono a confermare la presenza di qualcosa invece di rilevarne l’assenza, un problema che può portare a errori gravi, specialmente nell’analisi delle immagini mediche.

La dimensione etica e la necessità di modelli di IA più precisi

Nell’applicazione medica delle tecnologie di IA, è particolarmente importante comprendere il significato delle negazioni e implementarle correttamente.

Nella pratica clinica, le negazioni possono fare la differenza tra una diagnosi corretta e una errata.

Un modello incapace di rilevare che “non ci sono segni di polmonite” potrebbe produrre un falso positivo, portando a trattamenti inutili o a decisioni mediche sbagliate.

Soluzioni e miglioramenti

Esistono già approcci iniziali per affrontare i problemi relativi al rilevamento delle negazioni. Una possibile soluzione potrebbe essere l’addestramento specifico di modelli di IA con set di dati che contengano negazioni.

In questo modo, i modelli potrebbero imparare a riconoscere e gestire correttamente il significato di “non” o “nessuno” in un contesto medico. Tuttavia, questo è ancora un primo o.

Tracker di salute, IA, dati sanitari, diagnosi, decisioni mediche
Dispositivi indossabili per la salute e IA: monitoraggio continuo dei dati sanitari per facilitare diagnosi accurate e prendere decisioni mediche migliori.

È importante che gli sviluppi futuri non solo migliorino la capacità dell’IA di rilevare la negazione, ma anche la sua capacità di comprendere il contesto di una situazione e rispondere correttamente.

E adesso?

L’incapacità dei modelli di IA di interpretare correttamente le negazioni rappresenta un ostacolo importante per l’uso diffuso di queste tecnologie in medicina. Nonostante i progressi compiuti nel miglioramento delle capacità di rilevamento delle negazioni, resta ancora molto da fare.

Solo in questo modo l’intelligenza artificiale potrà essere utilizzata come uno strumento sicuro ed efficace nella diagnosi e nel trattamento medico.

Riferimenti allo studio

Alhamoud, K., Alshammari, S., Tian, Y., Li, G., Torr, P., Kim, Y., & Ghassemi, M. (2025). Vision-Language Models Do Not Understand Negation. arXiv.