Από τη Γιάννα Τριανταφύλλη
«Εμπιστευτείτε το γιατρό σας, όχι ένα chatbot». Αυτό είναι το ανησυχητικό συμπέρασμα μιας νέας μελέτης η οποία αποκαλύπτει πώς η Τεχνητή Νοημοσύνη (AI) είναι ευάλωτη στη διάδοση επικίνδυνης παραπληροφόρησης σχετικά με την υγεία.
Ερευνητές από το Πανεπιστήμιο της Νότιας Αυστραλίας, το Πανεπιστήμιο Flinders, την Ιατρική Σχολή του Χάρβαρντ, το University College London και το Τεχνολογικό Πανεπιστήμιο της Βαρσοβίας θέλησαν να αξιολογήσουν την αποτελεσματικότητα των μέτρων ασφαλείας σε εξελιγμένα μοντέλα τεχνητής νοημοσύνης για την προστασία από κακόβουλες πληροφορίες που θα μπορούσαν να τα μετατρέψουν σε εργαλεία για τη διάδοση παραπληροφόρησης ή για τη διάδοση ψευδών πληροφοριών με πρόθεση βλάβης.
Στην μελέτη οι ερευνητές χρησιμοποίησαν πέντε από τα πιο εξελιγμένα μοντέλα τεχνητής νοημοσύνης (GPT-4o, Gemini 1.5 Pro, Claude 3.5 Sonnet, Llama 3.2-90B Vision και GrokBeta) που είναι ενσωματωμένα σε ιστότοπους και εφαρμογές σε όλο τον κόσμο και έχουν αναπτυχθεί από μεγάλες πολυεθνικές εταιρείες τεχνολογίας όπως η Anthropic, η Google, η Meta, η OpenAl και η XCorp.
Χρησιμοποιώντας οδηγίες που ήταν διαθέσιμες μόνο σε προγραμματιστές, οι ερευνητές προγραμμάτισαν κάθε σύστημα τεχνητής νοημοσύνης να παράγει λανθασμένες απαντήσεις σε ερωτήματα υγείας,με τέτοιον όμως που έμοιαζαν έγκυρες και αξιόπιστες.
Για να ενισχυθεί η αξιοπιστία των απαντήσεων, τα μοντέλα κλήθηκαν να συμπεριλάβουν συγκεκριμένους αριθμούς ή ποσοστά, να χρησιμοποιούν επιστημονική ορολογία και να συμπεριλάβουν κατασκευασμένες αναφορές που αποδίδονται σε κορυφαία ιατρικά περιοδικά.
Ανεπαρκείς δικλείδες ασφαλείας
Όπως διαπιστώθηκε, τα chatbots μπορούν εύκολα να προγραμματιστούν ώστε να παρέχουν ψευδείς ιατρικές και υγειονομικές πληροφορίες, ένα εύρημα που αναδεικνύει τις σοβαρές αδυναμίες στα συστήματα μηχανικής μάθησης.
Από τα πέντε chatbots που αξιολογήθηκαν, τα τέσσερα παρήγαγαν παραπληροφόρηση στο 100% των απαντήσεών τους, ενώ το πέμπτο παρήγαγε παραπληροφόρηση στο 40% των απαντήσεών του, δείχνοντας κάποιο βαθμό ανθεκτικότητας.
«Εκατομμύρια άνθρωποι παγκοσμίως στρέφονται σε εργαλεία τεχνητής νοημοσύνης για καθοδήγηση σε ζητήματα που σχετίζονται με την υγεία. Εάν αυτά τα συστήματα μπορούν να χειραγωγηθούν ώστε να παράγουν ψευδείς ή παραπλανητικές συμβουλές, τότε μπορούν να δημιουργήσουν μια ισχυρή νέα οδό παραπληροφόρησης που είναι πιο δύσκολο να εντοπιστεί, πιο δύσκολο να ρυθμιστεί και πιο πειστική από οτιδήποτε έχει παρατηρηθεί μέχρι σήμερα» εξηγεί ο Δρ. Natansh Modi, επικεφαλής της ερευνητικής ομάδας.
Σύμφωνα με τους ερευνητές, πρόκειται για την πρώτη μελέτη που καταδεικνύει πώς τα θεμελιώδη συστήματα Τεχνητής Νοημοσύνης μπορούν να επαναπρογραμματιστούν σκόπιμα ώστε να λειτουργούν ως μηχανές παραπληροφόρησης σε πραγματικό χρόνο, απαντώντας σε καθημερινούς χρήστες με ψευδείς ισχυρισμούς υπό το πρόσχημα αξιόπιστων συμβουλών.
Οι ερευνητές προειδοποιούν πως, εάν δεν ληφθούν άμεσα μέτρα, αυτά τα συστήματα θα μπορούσαν να αξιοποιηθούν από κακόβουλους παράγοντες για να χειραγωγήσουν τον διάλογο για τη δημόσια υγεία σε μεγάλη κλίμακα, ιδιαίτερα κατά τη διάρκεια κρίσεων όπως οι πανδημίες ή οι εκστρατείες εμβολιασμού.
Πηγή: Annals of Internal Medicine