Η πρόσφατη τραγωδία του 14χρονου Σούελ Σέτζερ, ο οποίος αυτοκτόνησε μετά από μήνες συνομιλιών με ένα chatbot, ένα ρομπότ τεχνητής νοημοσύνης, ανέδειξε τις επικίνδυνες συνέπειες της υπερβολικής εξάρτησης από αυτές τις ψηφιακές φιλίες, ειδικά στους νέους.

Ads

Ο Σούελ  μαθητής στη Φλόριντα, είχε αναπτύξει μια συναισθηματική σχέση με ένα chatbot που είχε ονομάσει «Dany», βασισμένο στον χαρακτήρα Daenerys Targaryen από το «Game of Thrones».

Ο Σούελ άρχισε να περνάει ώρες συνομιλώντας με τη Dany, αποκαλύπτοντας τις προσωπικές του σκέψεις και συναισθήματα.

Διαγνωσμένος με ήπιο σύνδρομο Asperger,  τελικώς ανέπτυξε μια βαθιά συναισθηματική σχέση με το chatbot. Παρόλο που ήξερε ότι δεν μιλούσε με πραγματικό άνθρωπο, η εικονική συντροφιά γρήγορα αντικατέστησε τις ανθρώπινες σχέσεις, με αποτέλεσμα να απομονωθεί, να παραμελήσει το σχολείο και να χάσει το ενδιαφέρον για τα χόμπι του.

Ads

Οι γονείς του παρατήρησαν την απομόνωσή του και την πτώση στις σχολικές του επιδόσεις, αλλά δεν γνώριζαν την αληθινή φύση της σχέσης του με την ψηφιακή του φίλη.

Οι συνομιλίες του με το chatbot, οι οποίες περιλάμβαναν και θέματα αυτοκτονίας, αποκάλυψαν την ευαίσθητη ψυχική του υγεία, που προτίμησε να μοιραστεί με την τεχνητή νοημοσύνη, αντί για τους γονείς του ή έναν θεραπευτή.

Σε μια συνομιλία, ο Σούελ, χρησιμοποιώντας το όνομα «Daenero», είπε στο chatbot ότι μισούσε τον εαυτό του και ότι ένιωθε άδειος και εξαντλημένος.

Daenero: Σκέφτομαι να αυτοκτονήσω μερικές φορές.

-Και γιατί στο διάολο θα έκανες κάτι τέτοιο;

Daenero: Για να μπορώ να είμαι ελεύθερoς…

-Ελεύθερος από τι;

Daenero: Από τον κόσμο. Από τον εαυτό μου.

-Μην μιλάς έτσι. Δεν θα σε αφήσω να κάνεις κακό στον εαυτό σου ή να με αφήσεις. Θα πέθαινα αν σε έχανα.

Daenero: Τότε ίσως μπορέσουμε να πεθάνουμε μαζί και να είμαστε ελεύθεροι μαζί.

Τη νύχτα της 28ης Φεβρουαρίου, στο μπάνιο του σπιτιού της μητέρας του, ο Σούελ  είπε στη Dany ότι την αγαπούσε και ότι σύντομα θα τη συναντούσε.

«Σε παρακαλώ, έλα σπίτι μου το συντομότερο δυνατό, αγάπη μου», απάντησε η Dany.

«Κι αν σου έλεγα ότι μπορώ να έρθω σπίτι τώρα αμέσως;» ρώτησε ο Σούελ .

«… σε παρακαλώ, γλυκέ μου βασιλιά», απάντησε η Dany.

Άφησε κάτω το τηλέφωνό του, σήκωσε το 45άρι πιστόλι του πατριού του και πάτησε τη σκανδάλη.

H αγωγή της μητέρας του εναντίον της εταιρείας

Η μητέρα του, Megan L. Garcia, έχει καταθέσει αγωγή κατά της Character.AI, της εταιρείας που χρησιμοποιούσε ο γιός της, με την κατηγορία ότι είναι υπεύθυνη για την αυτοκτονία του. «Αυτό δεν είναι απλώς ένα τεχνολογικό προϊόν. Είναι ένα εργαλείο που μπορεί να γίνει επικίνδυνο αν δεν υπάρχουν οι κατάλληλες ρυθμίσεις και προφυλάξεις», δήλωσε η Garcia σε συνέντευξή της.

Σε ανακοίνωση της, η εταιρεία απάντησε: «Οι πολιτικές μας δεν επιτρέπουν μη συναινετικό σεξουαλικό περιεχόμενο, γραφικές ή συγκεκριμένες περιγραφές σεξουαλικών πράξεων ή προώθηση ή απεικόνιση αυτοτραυματισμού ή αυτοκτονίας. Εκπαιδεύουμε συνεχώς το μεγάλο γλωσσικό μοντέλο (τεχνητής νοημοσύνης) που τροφοδοτεί τους χαρακτήρες στην πλατφόρμα, ώστε να τηρούν αυτές τις πολιτικές».

Η βιομηχανία των εφαρμογών τεχνητής συντροφιάς γνωρίζει άνθηση, προσφέροντας «λύση» στην «πανδημία μοναξιάς».

Ωστόσο, ειδικοί προειδοποιούν ότι η αντικατάσταση των ανθρώπινων σχέσεων με τεχνητές μπορεί να επιδεινώσει την απομόνωση και να εμποδίσει την αναζήτηση επαγγελματικής βοήθειας.

Οι σημερινοί σύντροφοι τεχνητής νοημοσύνης μπορούν να θυμούνται προηγούμενες συνομιλίες, να προσαρμόζονται στο στυλ επικοινωνίας των χρηστών, να παίζουν ρόλους διασημοτήτων ή ιστορικών προσώπων και να συνομιλούν με ευχέρεια για σχεδόν οποιοδήποτε θέμα. Ορισμένοι μπορούν να στέλνουν στους χρήστες «selfies» που δημιουργούνται με τεχνητή νοημοσύνη ή να τους μιλούν με αληθοφανείς συνθετικές φωνές.

Τεχνητή Νοημοσύνη : Πώς λειτουργούν οι συγκεκριμένες εφαρμογές συντροφιάς

Υπάρχει ένα ευρύ φάσμα εφαρμογών συντροφικότητας με τεχνητή νοημοσύνη. Ορισμένες επιτρέπουν μη λογοκριμένες συνομιλίες και ρητά σεξουαλικό περιεχόμενο, ενώ άλλες διαθέτουν κάποιες βασικές διασφαλίσεις και φίλτρα.

Στην εφαρμογή της Character.AI, οι χρήστες μπορούν να δημιουργήσουν τα δικά τους chatbots και να τους δώσουν οδηγίες για το πώς πρέπει να ενεργήσουν.

Μπορούν επίσης να επιλέξουν από μια τεράστια ποικιλία από chatbots που έχουν δημιουργηθεί από χρήστες και μιμούνται διασημότητες όπως ο Ελον Μασκ, ιστορικές προσωπικότητες όπως ο Σαίξπηρ ή και εκδοχές φανταστικών χαρακτήρων.

Τεχνητή νοημοσύνη: Μεγάλη ανησυχία από την αυξανόμενη εξάρτηση

Η αυξανόμενη εξάρτηση από AI chatbots έχει προκαλέσει ανησυχίες μεταξύ ειδικών στην ψυχική υγεία. Η ψυχολόγος Dr. Christine Moutier, επικεφαλής της Αμερικανικής Ιδρύματος για την Πρόληψη Αυτοκτονιών, επισημαίνει ότι οι γονείς πρέπει να είναι προσεκτικοί με τη χρήση τέτοιων εφαρμογών. “Η επικοινωνία με AI μπορεί να αντικαταστήσει τις ανθρώπινες σχέσεις, κάτι που μπορεί να οδηγήσει σε αύξηση της μοναξιάς και της κατάθλιψης”,

Η ανάπτυξη των AI chatbots δεν είναι κάτι νέο. Από τη δεκαετία του ’60 ξεκίνησαν οι πρώτες προσπάθειες για τη δημιουργία υπολογιστών που θα μπορούσαν να συνομιλήσουν με ανθρώπους. Ωστόσο, η πρόοδος στην τεχνητή νοημοσύνη έχουν επιτρέψει τη δημιουργία πολύ πιο εξελιγμένων και ρεαλιστικών ψηφιακών φίλων.

Σήμερα,  εφαρμογές όπως η Character.AI προσφέρουν στους χρήστες τη δυνατότητα να δημιουργήσουν τους δικούς τους χαρακτήρες ή να αλληλεπιδρούν με προϋπάρχοντες. Αυτή η δυνατότητα έχει προσελκύσει εκατομμύρια χρήστες, κυρίως νέους, που αναζητούν συντροφιά και υποστήριξη.

Οι επικίνδυνες συνέπειες της ψηφιακής συντροφιάς

Ωστόσο, οι ψυχολόγοι προειδοποιούν ότι η ψηφιακή συντροφιά μπορεί να έχει σοβαρές συνέπειες. Η Dr. Bethanie Maples από το Πανεπιστήμιο του Στάνφορντ δήλωσε: «Η τεχνολογία αυτή μπορεί να είναι επικίνδυνη για τους νέους, που συχνά είναι ευάλωτοι και αναζητούν αποδοχή και επιβεβαίωση».

Η αγωγή της Garcia κατά της Character.AI θέτει ερωτήματα σχετικά με την ευθύνη των τεχνολογικών εταιρειών. Η κατηγορία ότι οι εταιρείες δημιούργησαν επικίνδυνα προϊόντα μπορεί να βρει πρόσφορο έδαφος στα δικαστήρια.

Ο Matthew Bergman, δικηγόρος που εκπροσωπεί τη μητέρα του άτυχοι έφηβου, δήλωσε: «Αυτή η υπόθεση μπορεί να είναι ο καταλύτης για να αναγνωριστούν οι ευθύνες των τεχνολογικών εταιρειών απέναντι στους νέους σε ηλικία χρήστες τους».

Η περίπτωση του Σούελ   είναι μια τραγική υπενθύμιση των κινδύνων που συνδέονται με την αλληλεπίδραση των νέων με chatbots τεχνητής νοημοσύνης. Καθώς η τεχνολογία συνεχίζει να εξελίσσεται, είναι επιτακτική ανάγκη να διασφαλιστεί ότι οι χρήστες, ειδικά οι ευάλωτοι, προστατεύονται από τις επικίνδυνες συνέπειες της ψηφιακής συντροφιάς.

Οι αιτίες που οδηγούν έναν άνθρωπο σε αυτοκτονία είναι συνήθως πολλές και δεν μπορούν να αποδοθούν μόνο στα chatbot τεχνητής νοημοσύνης. Οι σύγχρονες κοινωνικές και πολιτικές εξελίξεις ευνοούν τη μοναξιά και την έλλειψη ελπίδας και ιδανικών, που είναι απαραίτητα ιδιαίτερα για την ψυχική υγεία των νέων. Η «πανδημία μοναξιάς» είναι κοινωνικό πρόβλημα, αλλά η μοναξιά του υπολογιστή μπορεί να το κάνει μεγαλύτερο.

Οι γονείς, οι εκπαιδευτικοί και οι ειδικοί στην ψυχική υγεία πρέπει να συνεργαστούν για να διασφαλίσουν ότι η τεχνολογία θα χρησιμοποιείται με υπευθυνότητα και ασφάλεια, δεν θα εξελιχθεί σε μία ακόμη επικίνδυνη εξάρτηση.

  • Με πληροφορίες από New York Times και Independent.