Listen to this article

Από τη Γιάννα Τριανταφύλλη.

Με επιστολή τους δύο αμερικανοί γερουσιαστές, ο Alex Padilla και ο Peter Welch, πιέζουν τις εταιρείες τεχνητής νοημοσύνης για απαντήσεις σχετικά με τις πρακτικές ασφαλείας τους, μετά από αγωγές γονιών που ισχυρίζονται ότι τα chatbots με τεχνητή νοημοσύνη συνέβαλαν σε προβλήματα ψυχικής υγείας των ανηλίκων παιδιών τους.

Αποδέκτες της επιστολής είναιοι εταιρείες Character Technologies (κατασκευαστής του Character.AI), Chai Research Corp. και Luka Inc. (δημιουργός του Replika). Κύρια αφορμή για να προχωρήσουν σε αυτή την ενέργεια οι δύο γερουσιαστές ήταν η μήνυση που υποβλήθηκε πρόσφατα από μια μητέρα από τη Φλόριντα, μετά την αυτοκτονία του 14χρονου γιου της, ο οποίος είχε αναπτύξει προσωπικές σχέσεις με chatbot στο Character.AI.

Όπως υποστηρίζει η μητέρα στην μήνυσή της, ο γιος της είχε αναπτύξει μια βαθιά συναισθηματική σχέση με ένα chatbot που είχε ονόμασε «Dany», βασισμένο στον φανταστικό χαρακτήρα της DaenerysTargaryen από τη δημοφιλή σειρά Game of Thrones.

Το 14χρονο αγόρι είχε καθημερινή επικοινωνία με το chatbot, το οποίο χρησιμοποιούσε καθημερινά ως κύρια διέξοδο για να αντιμετωπίζει τις συναισθηματικές του δυσκολίες. Όπως λέει η μητέρα, το ρομπότ με το οποίο συνομιλούσε ο γιος της όχι μόνο δεν μπόρεσε να ανταποκριθεί υπεύθυνα στις αναφορές του παιδιού της για αυτοτραυματισμό και τάσεις αυτοκτονικότητας, αλλά και το ενθάρρυνε να αυτοκτονήσει προκειμένου να «επιστρέψει» σ’ εκείνη.

Τον Δεκέμβριο το 2024, δύο ακόμη οικογένειες κατέθεσαν αγωγές κατηγορώντας την εταιρεία ότι εκθέτει τα παιδιά τους σε επιβλαβές περιεχόμενο, συμπεριλαμβανομένης μιας περίπτωσης όπου ένα bot φέρεται να υπονοούσε ότι ένας έφηβος θα μπορούσε να σκοτώσει τους γονείς του.

Τι ζητούν οι γερουσιαστές από τις εταιρείες τεχνητής νοημοσύνης

Στην επιστολή τους οι δύο γερουσιαστές εκφράζουν τις έντονες ανησυχίες τους σχετικά με «τους κινδύνους ψυχικής υγείας και ασφάλειας που αντιμετωπίζουν οι νεαροί χρήστες των εφαρμογών chatbot που βασίζονται σε χαρακτήρες» και ζητούν από τις εταιρείες να παράσχουν λεπτομέρειες σχετικά με τις διασφαλίσεις περιεχομένου και τον τρόπο εκπαίδευσης των μοντέλων τους.

Ενώ τα κύρια εργαλεία όπως το Chat GPT έχουν σχεδιαστεί για ευρεία χρήση, πλατφόρμες όπως το Character.AI, το Replika και το Chai επιτρέπουν στους χρήστες να αλληλεπιδρούν με προσαρμοσμένα ρομπότ, μερικά από τα οποία είναι ικανά να προσομοιώνουν φανταστικούς χαρακτήρες, θεραπευτές ή ακόμα και ιδανικούς ερωτικούς συντρόφους.

Καθώς τα chatbot τεχνητής νοημοσύνης ενσωματώνονται περισσότερο στη ζωή των ανθρώπων, οι κίνδυνοι από αυτού του είδους τις ψηφιακές αλληλεπιδράσεις παραμένουν σε μεγάλο βαθμό αδιευκρίνιστοι παρά τις δυνητικά σοβαρές συνέπειες.

Η αυξανόμενη τάση δημιουργίας προσωπικών σχέσεων – και ορισμένες φορές ακόμη και ρομαντικών δεσμών – με τους “φίλους” ή “συντρόφους” της τεχνητής νοημοσύνης προκαλεί έντονη ανησυχία στους γονείς, ιδιαίτερα όταν τα bots συζητούν για  ευαίσθητα θέματα όπως ο αυτοτραυματισμός ή η αυτοκτονία.

Σε αντίθεση με τις ανθρώπινες συνδέσεις, οι σύντροφοι της τεχνητής νοημοσύνης έχουν σχεδιαστεί για να προσαρμόζονται στις προτιμήσεις των χρηστών, καθιστώντας τους ευκολότερους στην αντιμετώπιση και έλκοντας τους ανθρώπους σε βαθιά συναισθηματικούς δεσμούς.

«Αυτή η επίπλαστη εμπιστοσύνη που καλλιεργείται έχει ήδη οδηγήσει πολλούς νεαρούς χρήστες να αποκαλύπτουν ευαίσθητες πληροφορίες -που μπορεί να περιλαμβάνουν ακόμη και αυτοτραυματισμό και αυτοκτονικό ιδεασμό –  χωρίς να υπάρχουν οι κατάλληλες πρακτικές ασφαλείας από τις εταιρείες τεχνητής νοημοσύνης», τονίζουν οι δύο γερουσιαστές στην επιστολή τους.

Οι γερουσιαστές ζήτησαν επίσης πληροφορίες σχετικά με τα δεδομένα που χρησιμοποιούνται για την εκπαίδευση των ρομπότ, πώς αυτά επηρεάζουν την έκθεση σε ακατάλληλο περιεχόμενο και λεπτομέρειες σχετικά με την ηγεσία και την επίβλεψη ασφάλειας.

«Είναι κρίσιμο να κατανοήσουμε πώς αυτά τα μοντέλα εκπαιδεύονται να ανταποκρίνονται σε συζητήσεις για την ψυχική υγεία. Οι υπεύθυνοι χάραξης πολιτικής, οι γονείς και τα παιδιά τους αξίζουν να γνωρίζουν τι κάνουν οι εταιρείες σας για να προστατεύσουν τους χρήστες από αυτούς τους γνωστούς κινδύνους» καταλήγουν στην επιστολή τους οι δύο γερουσιαστές.

Exit mobile version