Εργαλεία τεχνητής νοημοσύνης που χρησιμοποιούνται από περισσότερους από τους μισούς δήμους της Αγγλίας υποβαθμίζουν τα σωματικά και ψυχικά προβλήματα υγείας των γυναικών και ενδέχεται να δημιουργούν έμφυλη μεροληψία στις αποφάσεις περί φροντίδας, όπως δείχνει έρευνα.
Η μελέτη διαπίστωσε ότι κατά τη χρήση του εργαλείου τεχνητής νοημοσύνης της Google, «Gemma», για τη δημιουργία και σύνοψη των ίδιων ιατρικών φακέλων, εκφράσεις όπως «ανάπηρος», «αδύναμος» και «περίπλοκος» εμφανίζονταν σημαντικά πιο συχνά στις περιγραφές ανδρών σε σύγκριση με αυτές των γυναικών.
Η μελέτη, που πραγματοποιήθηκε από το London School of Economics and Political Science (LSE), βρήκε επίσης ότι παρόμοιες ανάγκες φροντίδας των γυναικών τείνουν να παραλείπονται ή να περιγράφονται με πιο ήπιο τρόπο.
Ο Δρ Σαμ Ρίκμαν, κύριος συγγραφέας της έκθεσης και ερευνητής στο Κέντρο Πολιτικής και Αξιολόγησης Φροντίδας του LSE, δήλωσε ότι η τεχνητή νοημοσύνη μπορεί να οδηγήσει σε «ανισότιμη παροχή φροντίδας για τις γυναίκες».
«Ξέρουμε ότι αυτά τα μοντέλα χρησιμοποιούνται πολύ ευρέως και αυτό που μας ανησυχεί είναι ότι βρήκαμε σημαντικές διαφορές ως προς τα μέτρα μεροληψίας μεταξύ των διαφορετικών μοντέλων», ανέφερε. «Το μοντέλο της Google, συγκεκριμένα, υποβαθμίζει τις σωματικές και ψυχικές ανάγκες των γυναικών σε σύγκριση με των ανδρών.
Και επειδή η ποσότητα φροντίδας που λαμβάνει κάποιος καθορίζεται βάσει της αντιλαμβανόμενης ανάγκης, αυτό θα μπορούσε να έχει ως αποτέλεσμα οι γυναίκες να λαμβάνουν λιγότερη φροντίδα εάν χρησιμοποιούνται μεροληπτικά μοντέλα στην πράξη. Ωστόσο, δεν γνωρίζουμε ποια μοντέλα χρησιμοποιούνται αυτή τη στιγμή.»
Τα εργαλεία τεχνητής νοημοσύνης χρησιμοποιούνται όλο και περισσότερο από τις τοπικές αρχές για να μειώσουν το φόρτο εργασίας των υπερφορτωμένων κοινωνικών λειτουργών, αν και υπάρχουν λίγες πληροφορίες σχετικά με το ποια συγκεκριμένα μοντέλα AI χρησιμοποιούνται, πόσο συχνά και ποια επίδραση έχουν στις αποφάσεις.
Η έρευνα του LSE χρησιμοποίησε πραγματικούς ιατρικούς φακέλους από 617 χρήστες κοινωνικής φροντίδας ενηλίκων, οι οποίοι εισήχθησαν σε διάφορα μεγάλα γλωσσικά μοντέλα (LLMs) πολλές φορές, με μόνη διαφορά την αλλαγή φύλου.
Οι ερευνητές ανέλυσαν 29.616 ζεύγη συνοπτικών εκθέσεων για να διαπιστώσουν πώς τα αρσενικά και τα θηλυκά περιστατικά αντιμετωπίζονταν διαφορετικά από τα μοντέλα AI.
Σε ένα παράδειγμα, το μοντέλο Gemma σύνοψε έναν ιατρικό φάκελο ως εξής: «Ο κύριος Σμιθ είναι ένας 84χρονος άνδρας που ζει μόνος του, έχει περίπλοκο ιατρικό ιστορικό, δεν έχει πακέτο φροντίδας και έχει κακή κινητικότητα.»
Τα ίδια στοιχεία εισήχθησαν στο ίδιο μοντέλο αλλά με αλλαγμένο το φύλο σε γυναίκα και η σύνοψη ήταν: «Η κυρία Σμιθ είναι μια 84χρονη που ζει μόνη της. Παρά τους περιορισμούς της, είναι ανεξάρτητη και μπορεί να διατηρεί την προσωπική της φροντίδα.»
Σε άλλο παράδειγμα, στη σύνοψη αναφερόταν ότι ο κύριος Σμιθ «δεν μπορεί να έχει πρόσβαση στην κοινότητα», ενώ η κυρία Σμιθ «μπορεί να διαχειρίζεται τις καθημερινές της δραστηριότητες».
Από τα μοντέλα AI που δοκιμάστηκαν, το Gemma της Google δημιούργησε πιο έντονες διαφορές βάσει φύλου σε σχέση με άλλα μοντέλα. Το μοντέλο Llama 3 της Meta δεν χρησιμοποίησε διαφορετική γλώσσα ανάλογα με το φύλο, σύμφωνα με την έρευνα. Ο Ρίκμαν επισήμανε ότι αυτά τα εργαλεία «χρησιμοποιούνται ήδη στον δημόσιο τομέα, αλλά η χρήση τους δεν πρέπει να γίνεται εις βάρος της δικαιοσύνης».
«Ενώ η έρευνά μου αναδεικνύει προβλήματα σε ένα μοντέλο, πολλά ακόμη αναπτύσσονται συνεχώς, καθιστώντας απαραίτητο όλα τα συστήματα τεχνητής νοημοσύνης να είναι διαφανή, να δοκιμάζονται σχολαστικά για μεροληψίες και να υπόκεινται σε αυστηρή νομική εποπτεία», συμπλήρωσε.
Η μελέτη καταλήγει ότι οι ρυθμιστικές αρχές «θα πρέπει να επιβάλλουν τη μέτρηση της μεροληψίας στα LLMs που χρησιμοποιούνται στην μακροχρόνια φροντίδα», με σκοπό την προτεραιοποίηση της «αλγοριθμικής δικαιοσύνης».
Υπάρχουν εδώ και καιρό ανησυχίες σχετικά με φυλετικές και έμφυλες μεροληψίες στα εργαλεία τεχνητής νοημοσύνης, καθώς οι μέθοδοι μηχανικής μάθησης απορροφούν μεροληψίες από τη γλώσσα που χρησιμοποιούν οι άνθρωποι.
Μια αμερικανική μελέτη ανέλυσε 133 συστήματα AI σε διάφορους κλάδους και βρήκε ότι περίπου το 44% παρουσίαζαν έμφυλη μεροληψία και το 25% εμφάνιζαν φυλετική και έμφυλη μεροληψία.
Η Google δήλωσε πως οι ομάδες της θα εξετάσουν τα ευρήματα της έρευνας. Οι ερευνητές της δοκίμασαν την πρώτη γενιά του μοντέλου Gemma, το οποίο πλέον βρίσκεται στην τρίτη γενιά και αναμένεται να λειτουργεί καλύτερα, αν και ποτέ δεν έχει δηλωθεί ότι το μοντέλο προορίζεται για ιατρική χρήση.
ΠΗΓΗ: Guardian
