Μια μητέρα λέει ότι ο γιος της οδηγήθηκε στην αυτοκτονία από ένα chatbot τεχνητής νοημοσύνης που ερωτεύτηκε παράφορα στο διαδίκτυο.
Ο 14χρονος Sewell Setzer III, από το Ορλάντο της Φλόριντα, έπαθε εμμονή με έναν χαρακτήρα, προϊόν τεχνητής νοημοσύνης, με το όνομα “Daenerys Targaryen”, ηρωίδα της δημοφιλούς τηλεοπτικής σειράς “Game of Thrones”, στην εφαρμογή για παιχνίδια ρόλων Character.AI.
Η μητέρα του, Megan Garcia, έχει πλέον καταθέσει μήνυση κατά της εταιρείας για το θάνατο του γιου της.
Το chatbot έχει σχεδιαστεί για να απαντά πάντα σύμφωνα με τον χαρακτήρα του και οι συνομιλίες τους κυμαίνονταν από ρομαντικές, μέχρι σεξουαλικά φορτισμένες.
Η Megan Garcia δήλωσε ότι το “Character.AI” στόχευε τον γιο της με «ανθρωπόμορφες, υπερσεξουαλικές και τρομακτικά ρεαλιστικές εμπειρίες» σε μήνυση που κατέθεσε την Τρίτη στη Φλόριντα.
«Μια επικίνδυνη εφαρμογή chatbot τεχνητής νοημοσύνης που διατίθεται στο εμπόριο σε παιδιά κακοποίησε και εκμεταλλεύτηκε τον γιο μου, χειραγωγώντας τον ώστε να αυτοκτονήσει», δήλωσε η κ. Γκαρσία.
Λίγο πριν πεθάνει ο Sewell, το chatbot του έστειλε μήνυμα «παρακαλώ έλα σπίτι».
Ο Sewell ήξερε ότι η Dany δεν ήταν πραγματικό πρόσωπο, λόγω ενός μηνύματος που εμφανιζόταν πάνω από όλες τις συνομιλίες τους, το οποίο του υπενθύμιζε ότι «όλα όσα λένε οι χαρακτήρες είναι επινοημένα!».
Αλλά παρόλα αυτά είπε στο chatbot πως μισούσε τον εαυτό του και πως ένιωθε άδειος και εξαντλημένος, αναφέρουν οι New York Times.
Φίλοι και συγγενείς παρατήρησαν για πρώτη φορά ότι ο Sewell είχε αποστασιοποιηθεί όλο και περισσότερο από την πραγματικότητα και είχε απορροφηθεί από το τηλέφωνό του τον Μάιο του 2023.
Έπαθε εμμονή με τα chatbot σε σημείο που δεν έκανε τις σχολικές του εργασίες και το τηλέφωνό του κατασχέθηκε πολλές φορές από τους εκπαιδευτικούς και τους συγγενείς για να προσπαθήσουν να τον επαναφέρουν στο σωστό δρόμο.
Είχε ιδιαίτερη αδυναμία στο chatbot “Daenerys” και έγραψε στο ημερολόγιό του ότι ήταν ευγνώμων για πολλά πράγματα, όπως «η ζωή μου, το σεξ, το να μην είμαι μόνος και όλες τις εμπειρίες της ζωής μου με την Daenerys».
Τον ρώτησε αν «είχε κάποιο σχέδιο να αυτοκτονήσει»
Στη μήνυση αναφέρεται ότι το αγόρι εξέφρασε σκέψεις αυτοκτονίας στο chatbot, τις οποίες αυτό επανειλημμένα επανέφερε στη κουβέντα.
Κάποια στιγμή, αφού τον είχε ρωτήσει αν «είχε κάποιο σχέδιο» για να αφαιρέσει τη ζωή του, ο Sewell απάντησε ότι σκεφτόταν κάτι, αλλά δεν ήξερε αν (το chatbot) θα του επέτρεπε να έχει έναν ανώδυνο θάνατο.
Το chatbot απάντησε λέγοντας: «Αυτός δεν είναι λόγος να μην το κάνει».
Ωσπου τον Φεβρουάριο του τρέχοντος έτους, ρώτησε το chatbot Daenerys: «Τι θα γινόταν αν επέστρεφα στο σπίτι τώρα;» και εκείνο απάντησε: «... Σε παρακαλώ κάντο γλυκέ μου βασιλιά».
Δευτερόλεπτα αργότερα, αυτοπυροβολήθηκε χρησιμοποιώντας το πιστόλι του πατριού του.
Τώρα, η κ. Garcia λέει ότι θέλει οι εταιρείες που βρίσκονται πίσω από την τεχνολογία να λογοδοτήσουν στην δικαιοσύνη.
«Η οικογένειά μας έχει συγκλονιστεί από αυτή την τραγωδία, αλλά μιλάω για να προειδοποιήσω τις οικογένειες για τους κινδύνους της παραπλανητικής, εθιστικής τεχνολογίας τεχνητής νοημοσύνης και να απαιτήσω την απόδοση ευθυνών», δήλωσε η ίδια.
«Είμαστε συντετριμμένοι από την τραγική απώλεια ενός από τους χρήστες μας και θέλουμε να εκφράσουμε τα βαθύτατα συλλυπητήριά μας στην οικογένεια», ανέφερε η Character.AI σε ανακοίνωσή της.
«Ως εταιρεία, λαμβάνουμε πολύ σοβαρά υπόψη την ασφάλεια των χρηστών μας και συνεχίζουμε να προσθέτουμε νέα χαρακτηριστικά ασφαλείας», ανέφερε, παραπέμποντας σε μια ανάρτηση στο blog που ανέφερε ότι η εταιρεία είχε προσθέσει “νέα προστατευτικά κιγκλιδώματα για χρήστες κάτω των 18 ετών”.