Μια νέα επιστημονική μελέτη κρούει τον κώδωνα του κινδύνου για την αξιοπιστία των ιατρικών δεδομένων, αποκαλύπτοντας ότι εικόνες ακτινογραφιών που έχουν δημιουργηθεί από τεχνητή νοημοσύνη (AI) μπορούν να παραπλανήσουν όχι μόνο έμπειρους ακτινολόγους, αλλά ακόμα και τα ίδια τα εργαλεία AI που τις δημιούργησαν. Τα ευρήματα αυτά αναδεικνύουν μια σοβαρή ευπάθεια στα συστήματα υγείας, η οποία θα μπορούσε να γίνει αντικείμενο εκμετάλλευσης από κακόβουλους παράγοντες.
Από τη Ρούλα Σκουρογιάννη
Τεχνητή νοημοσύνη: Οι «ψεύτικες» ακτινογραφίες εξαπατούν γιατρούς και αλγορίθμους
Στο πλαίσιο της έρευνας, που δημοσιεύθηκε στο περιοδικό Radiology, 17 ακτινολόγοι από 12 νοσοκομεία σε έξι χώρες κλήθηκαν να αξιολογήσουν 264 ακτινογραφίες. Οι μισές από αυτές ήταν πραγματικές, ενώ οι υπόλοιπες είχαν δημιουργηθεί μέσω εργαλείων AI, όπως το ChatGPT και το RoentGen.
Η πρόκληση της διάγνωσης και το «τυφλό σημείο» των ειδικών
Τα αποτελέσματα ήταν αποκαλυπτικά: όταν οι ακτινολόγοι δεν γνώριζαν τον πραγματικό σκοπό της μελέτης, μόνο το 41% κατάφερε να αναγνωρίσει αυθόρμητα τις εικόνες που παρήχθησαν από υπολογιστή. Η ακρίβεια των ειδικών ανέβηκε στο 75% μόνο αφού ενημερώθηκαν ότι το σύνολο των δεδομένων περιείχε συνθετικές εικόνες, γεγονός που αποδεικνύει πόσο δύσκολο είναι να εντοπιστεί μια καλοφτιαγμένη «deepfake» ακτινογραφία υπό κανονικές συνθήκες εργασίας.
Ο επικεφαλής της μελέτης, Dr. Mickael Tordjman από την Ιατρική Σχολή Icahn στο Mount Sinai της Νέας Υόρκης, τόνισε τις σοβαρές προεκτάσεις αυτού του φαινομένου:
«Η ύπαρξη συνθετικών ακτινογραφιών που είναι αρκετά ρεαλιστικές, ώστε να εξαπατούν τους γιατρούς, δημιουργεί μια επικίνδυνη ευπάθεια. Θα μπορούσε, για παράδειγμα, να χρησιμοποιηθεί σε περιπτώσεις δικαστικών απάτων, εάν ένα κατασκευασμένο κάταγμα είναι αδύνατο να διακριθεί από ένα πραγματικό».
Κίνδυνοι κυβερνοασφάλειας και κλινικό χάος
Πέρα από τις νομικές επιπτώσεις, ο Dr. Tordjman υπογράμμισε τον κίνδυνο της κυβερνοασφάλειας. Εάν χάκερ αποκτήσουν πρόσβαση στο δίκτυο ενός νοσοκομείου και εισάγουν συνθετικές εικόνες, θα μπορούσαν να αλλοιώσουν διαγνώσεις ασθενών ή να προκαλέσουν γενικευμένο κλινικό χάος, κλονίζοντας την εμπιστοσύνη στην αξιοπιστία των ψηφιακών ιατρικών φακέλων.
Εντύπωση προκαλεί και η απόδοση των ίδιων των μοντέλων τεχνητής νοημοσύνης. Οι ερευνητές δοκίμασαν τέσσερα μεγάλα γλωσσικά μοντέλα (GPT-4o, GPT-5, Gemini 2.5 Pro και Llama 4 Maverick) για να δουν αν μπορούν να εντοπίσουν τις πλαστές εικόνες. Η ακρίβειά τους κυμάνθηκε από 57% έως 85%. Ακόμη και το ChatGPT-4o, το ίδιο το μοντέλο που δημιούργησε τις deepfakes εικόνες, απέτυχε να τις εντοπίσει όλες, αν και σημείωσε καλύτερες επιδόσεις από τους ανταγωνιστές του.
Η ανάγκη για ψηφιακές δικλίδες ασφαλείας
Οι ερευνητές επισημαίνουν ότι απαιτούνται άμεσα μέτρα προστασίας, όπως η χρήση αόρατων υδατογραφημάτων (watermarks) που θα πιστοποιούν την ιδιοκτησία και την αυθεντικότητα των εικόνων, αποτρέποντας την παραποίησή τους.
«Πιθανότατα βλέπουμε μόνο την κορυφή του παγόβουνου», προειδοποίησε ο Dr. Tordjman, αναφερόμενος στην πιθανότητα εμφάνισης ψεύτικων αξονικών (CT) και μαγνητικών τομογραφιών (MRI) στο μέλλον. «Η δημιουργία εκπαιδευτικών δεδομένων και εργαλείων εντοπισμού από τώρα είναι κρίσιμης σημασίας για τη θωράκιση της δημόσιας υγείας».
