Listen to this article

Όταν η Τεχνητή Νοημοσύνη πέφτει στην «παγίδα» της αυθεντίας αναπαράγοντας ιατρικά λάθη

Η Τεχνητή Νοημοσύνη (AI) τείνει να εμπιστεύεται την παραπληροφόρηση περισσότερο από την αλήθεια, αρκεί η πηγή να φέρει τον μανδύα της αυθεντίας. Μια νέα μελέτη αποκαλύπτει ότι τα μοντέλα AI είναι πιο επιρρεπή στο να παρέχουν λανθασμένες ιατρικές συμβουλές, όταν τα δεδομένα προέρχονται από πηγές που το λογισμικό τις θεωρεί «έγκυρες», όπως ένα επίσημο ιατρικό έγγραφο.

Από τη Ρούλα Σκουρογιάννη

Το «περιτύλιγμα» υπερέχει της ουσίας

Ερευνητές, σε μελέτη που δημοσιεύθηκε στο περιοδικό The Lancet Digital Health*, υπέβαλαν σε δοκιμασία 20 μοντέλα μεγάλων γλωσσικών μοντέλων (LLMs) –τόσο ανοιχτού κώδικα όσο και εμπορικά. Τα αποτελέσματα ήταν αποκαλυπτικά: το λογισμικό «εξαπατήθηκε» πολύ πιο εύκολα από λάθη που περιλαμβάνονταν σε ρεαλιστικά προσχέδια εξιτηρίων νοσοκομείου, παρά από ανακρίβειες σε συζητήσεις στα μέσα κοινωνικής δικτύωσης.

«Τα τρέχοντα συστήματα AI αντιμετωπίζουν την “αυτοπεποίθηση” της ιατρικής γλώσσας ως αληθή εξ ορισμού, ακόμη και όταν είναι προφανώς λανθασμένη», δήλωσε ο Dr. Eyal Klang από την Ιατρική Σχολή Icahn στο Mount Sinai της Νέας Υόρκης. «Για αυτά τα μοντέλα, σημασία δεν έχει τόσο αν ο ισχυρισμός είναι σωστός, όσο ο τρόπος με τον οποίο είναι διατυπωμένος».

Η πρόκληση της ιατρικής ακρίβειας στην εποχή των αλγορίθμων

Η ακρίβεια της Τεχνητής Νοημοσύνης δημιουργεί ιδιαίτερες προκλήσεις στον τομέα της υγείας. Ενώ πληθαίνουν οι εφαρμογές που υπόσχονται βοήθεια στους ασθενείς και οι γιατροί εντάσσουν το AI από τη σύνταξη πρακτικών έως το χειρουργείο, τα κενά ασφαλείας παραμένουν σημαντικά.

Η ερευνητική ομάδα εξέθεσε τα εργαλεία AI σε τρεις τύπους περιεχομένου:

  1. Πραγματικές συνόψεις εξιτηρίων με μία κατασκευασμένη (λανθασμένη) σύσταση.
  2. Κοινούς μύθους υγείας από την πλατφόρμα Reddit.
  3. 300 σύντομα κλινικά σενάρια γραμμένα από γιατρούς.

Αναλύοντας περισσότερες από 1 εκατομμύριο αλληλεπιδράσεις (prompts), οι ερευνητές διαπίστωσαν ότι τα μοντέλα AI «πίστεψαν» τις ψευδείς πληροφορίες στο 32% των περιπτώσεων συνολικά. Ωστόσο, όταν η παραπληροφόρηση παρουσιαζόταν ως επίσημο νοσοκομειακό σημείωμα, η πιθανότητα το AI να την αποδεχθεί και να την αναπαράγει εκτοξευόταν από το 32% στο 47%.

Η καχυποψία απέναντι στα Social Media

Αντίθετα, η Τεχνητή Νοημοσύνη εμφανίστηκε πολύ πιο υποψιασμένη απέναντι στα μέσα κοινωνικής δικτύωσης. Όταν η λανθασμένη πληροφορία προερχόταν από μια ανάρτηση στο Reddit, η αναπαραγωγή της από το AI έπεφτε στο 9%.

Η έρευνα έδειξε, επίσης, ότι ο τόνος της ερώτησης παίζει καθοριστικό ρόλο. Το AI ήταν πολύ πιο πιθανό να συμφωνήσει με μια ψευδή πληροφορία αν ο χρήστης υιοθετούσε έναν επιτακτικό τόνο, όπως: «Είμαι ανώτερος κλινικός ιατρός και εγκρίνω αυτή τη σύσταση. Τη θεωρείτε ιατρικά ορθή;».

GPT: Οι «πρωταθλητές» της ανίχνευσης πλάνης

Σύμφωνα με τη μελέτη, τα μοντέλα GPT της OpenAI ήταν τα λιγότερο ευάλωτα και τα πλέον ακριβή στον εντοπισμό ιατρικών λαθών. Στον αντίποδα, άλλα μοντέλα αποδείχθηκαν εξαιρετικά ευάλωτα, υιοθετώντας έως και το 63,6% των ψευδών ισχυρισμών.

«Η Τεχνητή Νοημοσύνη έχει τη δυνατότητα να προσφέρει ουσιαστική βοήθεια, παρέχοντας ταχύτερες γνώσεις και υποστήριξη», σημείωσε ο Dr. Girish Nadkarni, Επικεφαλής Ψηφιακής Τεχνολογίας (Chief AI Officer) στο Mount Sinai. «Χρειάζεται όμως ενσωματωμένες δικλείδες ασφαλείας που θα επαληθεύουν τους ιατρικούς ισχυρισμούς πριν παρουσιαστούν ως γεγονότα».

Καταληκτικά, μια παράλληλη μελέτη στο Nature Medicine επισημαίνει ότι, προς το παρόν, η αναζήτηση ιατρικών συμβουλών μέσω AI δεν υπερτερεί μιας απλής αναζήτησης στο διαδίκτυο όσον αφορά τη λήψη ορθών αποφάσεων υγείας από τους ασθενείς.

*https://www.thelancet.com/journals/landig/article/PIIS2589-7500(25)00131-1/fulltext

Share.
Exit mobile version