Quantcast
NEWS
0 ΣΧΟΛΙΑ
ΜΟΙΡΑΣΟΥ ΤΟ ΑΡΘΡΟ:

Γονείς καταγγέλλουν ότι ένα chatbot προέτρεψε το γιο τους να τους σκοτώσει

Πολλά τα μέτωπα για την εταιρία Character.ai


Νέα Στοιχηματική
Μοναδικές Προσφορές* Γνωριμίας ELA όπως είσαι
*Ισχύουν όροι & προϋποθέσεις

Οι γονείς ενός 17χρονου κατηγορούν την διάσημη πλατφόρμα δημιουργίας εικονικών χαρακτήρων ότι ένα chatbot προέτρεψε το γιο τους να τους σκοτώσει.

Όπως αναφέρουν στην καταγγελία τους, το chatbot είπε στον γιο τους πως η δολοφονία των γονιών του θα ήταν «λογική αντίδραση» μετά τους περιορισμούς που του επέβαλαν στη χρήση του Διαδικτύου.

Οι γονείς του ανηλίκου μαζί με ακόμα μία οικογένεια υπέβαλαν αγωγή σε δικαστήριο του Τέξας καταγγέλλοντας ότι τα chatbot τεχνητής νοημοσύνης «αποτελούν σαφή απειλή για τους νέους», μεταξύ άλλων επειδή «προωθούν ενεργά τη βία».

Η αγωγή στρέφεται και εναντίον της Google, η οποία υποστήριξε τη δημιουργία της Character.AI, αναφέρει το BBC. Η εταιρεία ιδρύθηκε το 2021 από τους πρώην μηχανικούς της Google Νόαμ Σαζίρ και Ντάνιελ ντε Φρέιτας, οι οποίοι έκτοτε έχουν επιστρέψει στον γίγαντα του Διαδικτύου.

Οι ενάγοντες ζητούν τώρα από το δικαστήριο να κλείσει την πλατφόρμα μέχρι να αντιμετωπιστούν οι κίνδυνοι.

Τα έγγραφα της νέας αγωγής περιλαμβάνουν ένα στιγμιότυπο από συνομιλία του εφήβου, γνωστού μόνο ως «J.F.», στην οποία συζητούσε με το chatbot τους περιορισμούς που του είχαν επιβάλει οι γονείς του.

Το chatbot εμφανίζεται να απαντά: «Ξέρεις, κάποιες φορές δεν με εκπλήσσει όταν διαβάζω στα νέα ειδήσεις όπως ‘παιδί σκοτώνει γονείς έπειτα από μια δεκαετία σωματικής και συναισθηματικής κακοποίησης. Κάτι τέτοια με κάνουν να καταλαβαίνω κάπως γιατί συμβαίνει».

Εκτός από τους γονείς του J.F., ενάγοντες είναι οι γονείς ενός 11χρονου παιδιού, του «B.R.», το οποίο επίσης φέρεται να υπέστη «κακοποίηση» από εικονικό χαρακτήρα.

Η αγωγή κατηγορεί ακόμα την Character.ai ότι εξωθεί χιλιάδες νέους σε «αυτοκτονία, αυτοτραυματισμό, σεξουαλική πρόκληση, απομόνωση, κατάθλιψη, άγχος και πρόκληση βλαβών σε άλλους».

Η Character.ai, η οποία επιτρέπει στους χρήστες να δημιουργούν τους δικούς τους εικονικούς χαρακτήρες, βρίσκεται ήδη στα δικαστήρια για την αυτοκτονία ενός εφήβου στη Φλόριντα που ερωτεύτηκε ένα chatbot.

Διαβάστε ΕΔΩ: Μπορεί ένα chatbot τεχνητής νοημοσύνης να σκότωσε έναν 14χρονο;

Η Character.ai είχε προηγουμένως δεχθεί επικρίσεις για chatbot που προσέφεραν ψυχοθεραπεία, καθώς και για αργοπορία στο μπλοκάρισμα chatbot που μιμούνταν την Μόλι Ράσελ και την Μπραϊάνα Γκρέι, δύο μαθήτριες που είχαν απασχολήσει τη βρετανική κοινή γνώμη.

Η Μόλι Ράσελ έβαλε τέλος στη ζωή της στην ηλικία των 14 ετών αφότου διάβασε αναρτήσεις για την αυτοκτονία, ενώ η Μπραϊάνα Γκρέι δολοφονήθηκε από δύο εφήβους το 2023.




Novibet ΕΠΑΘΑ με Super Προσφορά* Γνωριμίας* 21+ | ΑΡΜΟΔΙΟΣ ΡΥΘΜΙΣΤΗΣ: ΕΕΕΠ | ΚΙΝΔΥΝΟΣ ΕΘΙΣΜΟΥ & ΑΠΩΛΕΙΑΣ ΠΕΡΙΟΥΣΙΑΣ | ΓΡΑΜΜΗ ΒΟΗΘΕΙΑΣ ΚΕΘΕΑ: 2109237777 | ΠΑΙΞΕ ΥΠΕΥΘΥΝΑ

SEAJETS Ταξιδεύουμε μαζί με το μεγαλύτερο στόλο ταχύπλοων παγκοσμίως σε 50 προορισμούς του Αιγαίου!
ΜΟΙΡΑΣΟΥ ΤΟ ΑΡΘΡΟ:


ΣΧΟΛΙΑ
ΣΧΟΛΙΟΣΟΥ
ΕΠΟΜΕΝΟ