Η είσοδος της Τεχνητής Νοημοσύνης (AI) στις χειρουργικές αίθουσες προαναγγέλθηκε ως μια επανάσταση που θα εκμηδένιζε το ανθρώπινο σφάλμα.
Ωστόσο, μια σειρά από αναφορές για αποτυχημένες επεμβάσεις και λανθασμένες αναγνωρίσεις οργάνων εγείρουν σοβαρά ερωτήματα. Ενώ οι κατασκευαστές ιατροτεχνολογικών προϊόντων σπεύδουν να ενσωματώσουν αλγορίθμους στα προϊόντα τους, οι ρυθμιστικές αρχές έρχονται αντιμέτωπες με έναν αυξανόμενο αριθμό καταγγελιών για τραυματισμούς ασθενών.
Από τη Ρούλα Σκουρογιάννη
Το σύστημα TruDi και οι δικαστικές διαμάχες
Το 2021, η Acclarent, θυγατρική τότε του κολοσσού Johnson & Johnson, παρουσίασε μια σημαντική αναβάθμιση στο σύστημα πλοήγησης TruDi, το οποίο χρησιμοποιείται σε επεμβάσεις για τη χρόνια παραρρινοκολπίτιδα. Η προσθήκη αλγορίθμων μηχανικής μάθησης (machine learning) υποσχέθηκε να καθοδηγεί με μεγαλύτερη ακρίβεια τους ωτορινολαρυγγολόγους.
Τα στατιστικά στοιχεία, όμως, δείχνουν μια ανησυχητική τάση. Πριν την ενσωμάτωση του AI, ο αμερικανικός Οργανισμός Τροφίμων και Φαρμάκων (FDA) είχε λάβει μόλις επτά αναφορές για δυσλειτουργίες σε διάστημα τριών ετών. Μετά την προσθήκη της νοημοσύνης στο λογισμικό, οι αναφορές εκτινάχθηκαν σε τουλάχιστον 100 περιπτώσεις δυσλειτουργιών και ανεπιθύμητων ενεργειών.
Μεταξύ του 2021 και του 2025, τουλάχιστον δέκα ασθενείς τραυματίστηκαν σοβαρά. Οι αναφορές περιγράφουν εφιαλτικά σενάρια:
- Διαρροή εγκεφαλονωτιαίου υγρού από τη μύτη ασθενούς.
- Τυχαία διάτρηση της βάσης του κρανίου.
- Σοβαρά εγκεφαλικά επεισόδια μετά από τραυματισμό καρωτίδας.
Δύο θύματα εγκεφαλικού στο Τέξας έχουν ήδη καταθέσει αγωγές, ισχυρίζοντας ότι το σύστημα AI έδωσε λανθασμένες πληροφορίες στον χειρουργό για τη θέση των εργαλείων μέσα στο κεφάλι τους. «Το προϊόν ήταν αναμφισβήτητα ασφαλέστερο πριν από την ενσωμάτωση της τεχνητής νοημοσύνης», αναφέρει μία από τις αγωγές.
Η «επιστημονική» άμυνα των εταιρειών
Η Integra LifeSciences, η οποία εξαγόρασε το σύστημα TruDi το 2024, υποστηρίζει ότι οι αναφορές του FDA δεν αποδεικνύουν αιτιώδη συνάφεια μεταξύ της τεχνολογίας AI και των τραυματισμών. «Οι αναφορές δείχνουν απλώς ότι το σύστημα ήταν σε χρήση κατά τη διάρκεια ενός συμβάντος», δηλώνει η εταιρεία, αρνούμενη κάθε ευθύνη.
Ωστόσο, η έρευνα του Reuters αποκαλύπτει μια διαφορετική πραγματικότητα. Σύμφωνα με αγωγές, στελέχη της εταιρείας φέρονται να πίεσαν για την εισαγωγή του AI κυρίως ως «εργαλείο μάρκετινγκ», παρά τις προειδοποιήσεις χειρουργών για την ανάγκη περαιτέρω δοκιμών. Μάλιστα, καταγγέλλεται ότι η εταιρεία έθεσε ως στόχο την ακρίβεια μόλις του 80% πριν κυκλοφορήσει την τεχνολογία στην αγορά.
Συστημικοί κίνδυνοι και ανακλήσεις προϊόντων
Το πρόβλημα δεν περιορίζεται σε μία συσκευή. Σήμερα κυκλοφορούν 1.357 ιατρικά βοηθήματα με AI εγκεκριμένα από τον FDA – αριθμός διπλάσιος σε σχέση με το 2022.
- Καρδιολογικά μόνιτορ: Αναφορές δείχνουν ότι απέτυχαν να αναγνωρίσουν σοβαρές αρρυθμίες.
- Υπερηχογραφήματα: Το λογισμικό Sonio Detect κατηγορήθηκε ότι αναγνώριζε λανθασμένα μέρη του εμβρύου.
Πρόσφατη μελέτη ερευνητών από τα πανεπιστήμια Johns Hopkins, Georgetown και Yale, που δημοσιεύθηκε στο JAMA Health Forum, αποκάλυψε ότι 60 εγκεκριμένες συσκευές AI συνδέθηκαν με 182 ανακλήσεις προϊόντων. Το 43% αυτών των ανακλήσεων συνέβη λιγότερο από έναν χρόνο μετά την έγκρισή τους, ποσοστό διπλάσιο από το αντίστοιχο των συμβατικών συσκευών.
Η υποστελέχωση των ρυθμιστικών αρχών
Η έκρηξη της τεχνητής νοημοσύνης βρίσκει τον FDA σε κατάσταση αδυναμίας. Επιστήμονες του οργανισμού αποκάλυψαν ότι η υπηρεσία πασχίζει να παρακολουθήσει τις εξελίξεις, ειδικά μετά τις πρόσφατες περικοπές προσωπικού στο πλαίσιο της εκστρατείας μείωσης κόστους της κυβέρνησης.
Περίπου το 1/3 της εξειδικευμένης ομάδας επιστημόνων υπολογιστών που ήλεγχαν τους αλγορίθμους αποχώρησε, αφήνοντας τους εναπομείναντες με διπλάσιο φόρτο εργασίας. «Αν δεν έχεις τους πόρους, είναι πολύ πιο πιθανό να σου διαφύγουν κρίσιμα σφάλματα», δηλώνει πρώην αξιολογητής του FDA.
Το νομοθετικό κενό
Ένα από τα σημαντικότερα προβλήματα είναι ο τρόπος έγκρισης. Οι περισσότερες συσκευές AI δεν απαιτείται να περάσουν από κλινικές δοκιμές σε ασθενείς. Αντ’ αυτού, οι εταιρείες χρησιμοποιούν τη διαδικασία της «ουσιαστικής ισοδυναμίας», συγκρίνοντας το νέο προϊόν με παλαιότερα που δεν διέθεταν AI.
«Η παραδοσιακή προσέγγιση του FDA δεν επαρκεί για να διασφαλίσει ότι οι τεχνολογίες AI είναι ασφαλείς», τονίζει ο Dr. Alexander Everhart από το Πανεπιστήμιο της Ουάσιγκτον. «Βασιζόμαστε στην καλή θέληση των κατασκευαστών, χωρίς ουσιαστικά προστατευτικά κιγκλιδώματα».
Καθώς η γεννητική τεχνητή νοημοσύνη (Generative AI) και τα chatbots εισέρχονται πλέον και στη διάγνωση, η ιατρική κοινότητα προειδοποιεί: η τεχνολογία μπορεί να προσφέρει ελπίδα για σπάνιες ασθένειες, αλλά χωρίς αυστηρό έλεγχο, η «ψηφιακή επανάσταση» κινδυνεύει να μετατραπεί σε μια αόρατη απειλή για την ασφάλεια των ασθενών.
