Negli ultimi anni, l’intelligenza artificiale (IA) ha compiuto progressi impressionanti nell’analisi dei dati di immagini e testo, in particolare attraverso i modelli di linguaggio visivo (VLM) che mettono in relazione immagini e testo.
Questi modelli hanno applicazioni promettenti nel campo medico, poiché aiutano ad analizzare immagini mediche, come radiografie o risonanze magnetiche, e le combinano con descrizioni testuali per assistere il personale medico nella formulazione delle diagnosi.
Tuttavia, una debolezza importante dei sistemi di IA attuali, spesso sottovalutata, è la loro incapacità di rilevare correttamente le negazioni.
In medicina, la distinzione precisa tra la presenza e l’assenza di sintomi o segni di malattia è cruciale. La capacità di identificare correttamente “non” o “assenza di segni” è essenziale nell’analisi delle immagini mediche.
Questi errori possono portare a trattamenti non necessari o, peggio ancora, alla mancata rilevazione di una condizione reale.
I modelli attuali di visione-linguaggio che combinano immagini e testo hanno notevoli difficoltà nell’interpretare correttamente le negazioni.
In test in cui i modelli dovevano cercare immagini in base alla presenza o all’assenza di determinati oggetti, hanno mostrato un’elevata precisione nell’identificazione degli oggetti. Ma quando veniva chiesto di cercare immagini che non contenessero un determinato oggetto, la precisione diminuiva sensibilmente.
Ciò accade perché questi modelli tendono a concentrarsi sulla conferma e sull’affermazione positiva. Significa che tendono a confermare la presenza di qualcosa invece di rilevarne l’assenza, un problema che può portare a errori gravi, specialmente nell’analisi delle immagini mediche.
Nell’applicazione medica delle tecnologie di IA, è particolarmente importante comprendere il significato delle negazioni e implementarle correttamente.
Un modello incapace di rilevare che “non ci sono segni di polmonite” potrebbe produrre un falso positivo, portando a trattamenti inutili o a decisioni mediche sbagliate.
Esistono già approcci iniziali per affrontare i problemi relativi al rilevamento delle negazioni. Una possibile soluzione potrebbe essere l’addestramento specifico di modelli di IA con set di dati che contengano negazioni.
In questo modo, i modelli potrebbero imparare a riconoscere e gestire correttamente il significato di “non” o “nessuno” in un contesto medico. Tuttavia, questo è ancora un primo o.
È importante che gli sviluppi futuri non solo migliorino la capacità dell’IA di rilevare la negazione, ma anche la sua capacità di comprendere il contesto di una situazione e rispondere correttamente.
L’incapacità dei modelli di IA di interpretare correttamente le negazioni rappresenta un ostacolo importante per l’uso diffuso di queste tecnologie in medicina. Nonostante i progressi compiuti nel miglioramento delle capacità di rilevamento delle negazioni, resta ancora molto da fare.
Solo in questo modo l’intelligenza artificiale potrà essere utilizzata come uno strumento sicuro ed efficace nella diagnosi e nel trattamento medico.
Alhamoud, K., Alshammari, S., Tian, Y., Li, G., Torr, P., Kim, Y., & Ghassemi, M. (2025). Vision-Language Models Do Not Understand Negation. arXiv.