Una frattura può essere simulata in modo così preciso da risultare credibile quanto una vera aprendo scenari delicati e potenzialmente pericolosi
24 aprile 2026
-U60833622611MNd-1440x752@IlSole24Ore-Web.jpg?r=650x341)
C’è uno strumento, nella pratica clinica, che sembra rendere tutto immediatamente evidente: l’immagine radiografica che appare davanti ai nostri occhi, ci racconta una storia precisa: quella di un osso fratturato, di un’infezione, di una neoplasia. Perché le radiografie, da sempre, rappresentano una delle prove più “oggettive” della medicina. O almeno lo erano. Perché oggi, questa certezza apodittica inizia a vacillare.
Una ricerca pubblicata sulla rivista Radiology apre infatti uno scenario fino a poco tempo fa impensabile: l’intelligenza artificiale è in grado di creare delle immagini radiografiche così realistiche da ingannare persino i radiologi esperti. E non si tratta di piccoli ritocchi o di manipolazioni evidenti, ma di veri e propri deepfake clinici che, nelle mani sbagliate, potrebbero esporre a conseguenze davvero spiacevoli.
L’intelligenza artificiale generativa (la tecnologia alla base di strumenti come ChatGPT) è ormai in grado di creare radiografie, a partire da semplici descrizioni testuali (i cosiddetti prompt). Nessun laboratorio radiografico, nessun macchinario: basta una descrizione e il fantomatico ‘algoritmo’. Ed ecco apparire dal nulla un’immagine radiografica anatomicamente plausibile, coerente, credibile. E soprattutto indistinguibile da una vera.
Lo studio su Radiology: occhio umano contro intelligenza artificiale
Lo studio appena pubblicato ha coinvolto 17 radiologi provenienti da diversi Paesi, che sono stati messi di fronte a centinaia di immagini radiografiche: alcune autentiche, altre prodotte dall’AI. Nella prima fase, senza essere stati informati della presenza di immagini artificiali, i medici hanno riconosciuto i fake solo nel 41% dei casi. Una volta edotti della possibile presenza di ‘falsi’, il loro occhio è diventato più attento e critico e la percentuale di svelamento dei fake è salita al 75% circa, non abbastanza da eliminare il problema comunque.
E purtroppo il problema non si limita all’attenzione o di esperienza ‘umana’. Anche i sistemi di intelligenza artificiale hanno problemi ad individuare le false immagini radiografiche. Nessuno è stato in grado di individuare tutti i falsi. Nemmeno l’algoritmo che li aveva generati (in questo caso ChatGPT).




